我正在关注ARCORE AUGMENTED FACES iOS SDK。内置的fox_face.scn对我来说工作正常。
现在,我们在Blender中创建了一些3d模型,并以.dae或.obj格式导出它们。从xcode中,我在scn中转换了这些模型,但是当我尝试渲染scn模型时,它不在脸上渲染。
相同的scn模型可以在ARKIT上正常工作,但不能与ARCORE一起工作
如果您的模型有动画,请检查您的3D文件是否符合此处的要求:https://developers.google.com/ar/develop/java/sceneform/animation/obtaining-assets
iOS上的渲染是在ARKit场景中完成的,不是ARCore。 ARCore Face Augmentation正在生成3D人脸资源,这些资源将交付给SceneKit以与每个帧回调一起渲染。
我不确定您为什么说scn模型可以在ARKit上正常工作,而不能在AR Core上正常工作?
我已经成功地从Blender导出到.dae,然后在xcode中转换为SceneKit文件。
话虽如此,我没有将默认的狐狸脸和骨头(以及我的几何图形)从Blender干净地直接导出到Xcode中,以创建默认演示所具有的内容。
相反,我不得不从导入/转换的场景(从Blender复制/粘贴3D几何内容)到项目随附的原始fox_face场景,确保所有轴都是正确的。
为了相对于原始的狐狸脸正确定位资产,我必须创建一些代码来在世界各地移动模型。
我希望有帮助。
但是如果您找到一种方法可以直接从搅拌器(包括默认的脸部或狐狸耳朵等)中干净地直接导出到整个场景中,包括新的几何图形,那么我会非常感兴趣。