iOS的12个应用使我们现在能够创建一个ARReferenceObject
,并利用它,可以可靠地识别真实世界的物体的位置和方向。我们还可以节省成品.arobject
文件。
But:
ARReferenceObject
只包含承认现实世界对象需要ARKit的空间特征信息,而不是对象的可显示3D重建。
sceneView.session.createReferenceObject(transform: simd_float4x4,
center: simd_float3,
extent: simd_float3) {
(ARReferenceObject?, Error?) in
// code
}
func export(to url: URL, previewImage: UIImage?) throws { }
有没有使我们能够重建数字3D几何的方法(低聚或高聚)从.arobject
文件中使用Poisson Surface Reconstruction
或Photogrammetry
?
你有一个报价from Apple's documentation回答了自己的问题:
一个
ARReferenceObject
只包含承认现实世界对象需要ARKit空间特征信息,而不是对象的可显示3D重建。
如果运行sample code,你可以看到自己是在扫描过程中和试验确认后创建的参考对象的可视化 - 它只是一个稀疏三维点云。有肯定在什么苹果的API提供任何摄影,并且有好多没有太多的在网状恢复现实结构方面去。
这并不是说,这种努力是不可能的 - 已经出现了基于ARKit的顶部一些第三方demoing摄影实验。但)这是不使用ARKit 2物体扫描,刚刚从ARFrame
原始像素缓冲和特征点,和2)外推在这些演示的水平将需要不平凡的原有R&d,因为它远远超越了实物资料ARKit本身耗材。