我正在尝试使用Google Mobile Vision在我的应用程序中实现面部跟踪。最终目标是在用户眨眼时运行函数。
我看过谷歌的文档,但发现它是在Objective-C中(我对Objective-C的经验为零)。
抱歉,我没有任何代码。我尝试使用在线 Obj-C 到 Swift 转换器,但它不起作用(大约有 100 个错误)。
有人可以告诉我如何在 Swift 4 中的应用程序中实现面部跟踪吗?
您有两种选择可以将 Google Mobile Vision 的 Objective-C 源代码集成到您的 Swift 项目中。
-
使用 Objective-C 桥接器:
Apple 文档 - "将 Objective-C 导入 Swift"可以帮助您将 Objective C 代码集成到 swift 项目中 -
使用可可豆荚:
Google Mobile Vision和CocoaPods文档可以帮助您,如何使用pod(cocoa pod)集成它
将 podGoogleMobileVision/FaceDetector
添加到您的 Podfile。
谷歌的以下教程将为您提供帮助。
- 人脸检测概念概述将指导您了解其基本概念
- 检测照片中的面部特征将帮助您在iOS中实现相同的功能
- 使用GoogleMVDataOutput将面部跟踪添加到您的应用程序 - 完整的源代码。
您的要求过于宽泛,您可能需要 Swift 中的完整工作示例。从这些教程开始,如果您卡在任何地方,请告诉我。我一定会帮助你,但不能为你提供完整的工作源代码。