如何使用Google Mobile Vision在Swift中实现面部跟踪?

问题描述 投票:1回答:1

我正在尝试使用Google Mobile Vision在我的应用中实现面部跟踪。最终目标是在用户眨眼时运行一个功能。

我查看了Google的文档,但发现它是在Objective-C中(我对Objective-C没有经验)。

对不起,我没有任何代码。我曾尝试使用在线Obj-C到Swift转换器,但它不起作用(大约有100个错误)。

有人可以告诉我如何在Swift 4中的应用程序中实现面部跟踪吗?

ios swift google-vision
1个回答
0
投票

您有两种选择将Objective-C Google Mobile Vision源集成到您的Swift项目中。

  1. 使用Objective-C桥: Apple文档 - “Importing Objective-C into Swift”可以帮助您在快速项目中集成Objective C代码
  2. 使用Cocoa Pod: Google Mobile VisionCocoaPods文件可以帮助你,如何使用pod(可可豆荚)整合它 将pod GoogleMobileVision/FaceDetector添加到您的Podfile。

Google的以下教程将为您提供帮助。

您的要求过于宽泛,您可能需要在Swift中完成工作样本。从这些教程开始,让我知道你是否卡在任何地方。我肯定会帮助你,但无法为你提供完整的工作源代码。

© www.soinside.com 2019 - 2024. All rights reserved.