我从文档中学到ARKit是CoreMotion
加AVFoundation
,但是我如何获取传感器数据:
那个由ARKit提供的CoreMotion而不是设置Core Motion的侦听器?
ARKit不仅包含CoreMotion
和AVFoundation
框架中的某些类,方法和属性,还包含以下中的一些类,方法和属性:
但是,您无法从iPhone传感器获取任何原始数据(Apple不允许),但是您绝对可以使用允许访问的数据。
例如:
1。包含相机捕获的图像的像素缓冲区:
let pixelBuffer: CVPixelBuffer? = sceneView.session.currentFrame?.capturedImage
2。相机在世界坐标空间(simd_float4x4)中的位置和方向:
let cameraMatrix = (sceneView.session.currentFrame?.camera.transform)!
3。 ARKit如何基于实际设备运动来构建场景坐标系的选项:
ARConfiguration.WorldAlignment.gravityAndHeading
ARConfiguration.WorldAlignment.gravity
ARConfiguration.WorldAlignment.camera
A,但是您无法从IMU获得纯加速度数据。