iOS 12 ARKit应用程序允许我们创建ARReferenceObject
,并使用它可以可靠地识别真实对象的位置和方向。而且我们还可以保存完成的.arobject
文件。
But:
[
ARReferenceObject
仅包含ARKit识别实际对象所需的空间特征信息,而不是该对象的可显示3D重建。
sceneView.session.createReferenceObject(transform: simd_float4x4,
center: simd_float3,
extent: simd_float3) {
(ARReferenceObject?, Error?) in
// code
}
func export(to url: URL, previewImage: UIImage?) throws { }
问题:有没有一种方法可以让我们使用.arobject
或Poisson Surface Reconstruction
从Photogrammetry
文件重构数字3D几何(低多边形或高多边形) ?
您用引号from Apple's documentation回答了自己的问题:
ARReferenceObject
仅包含ARKit识别实际对象所需的空间特征信息,而不是该对象的可显示3D重建。
[如果运行该sample code,则可以自己看到它在扫描过程中以及测试识别后为参考对象创建的可视化效果-这只是一个稀疏的3D点云。 Apple的API为您提供的功能肯定没有摄影测量法,并且在恢复网格中的真实结构方面没有太多要做。
并不是说这样的努力是不可能的-有一些基于ARKit的第三方demoing Here摄影测量学实验。但是
1。未使用ARKit 2对象扫描,仅使用ARFrame
中的原始像素缓冲区和特征点。
2。这些演示中的外推级别将需要非平凡的原始研发,因为它远远超出了信息的种类ARKit本身提供。