如何使用谷歌移动视觉在 Swift 中实现人脸跟踪?



我正在尝试使用Google Mobile Vision在我的应用程序中实现面部跟踪。最终目标是在用户眨眼时运行函数。

我看过谷歌的文档,但发现它是在Objective-C中(我对Objective-C的经验为零)。

抱歉,我没有任何代码。我尝试使用在线 Obj-C 到 Swift 转换器,但它不起作用(大约有 100 个错误)。

有人可以告诉我如何在 Swift 4 中的应用程序中实现面部跟踪吗?

您有两种选择可以将 Google Mobile Vision 的 Objective-C 源代码集成到您的 Swift 项目中。

  1. 使用 Objective-C 桥接器:
    Apple 文档 - "将 Objective-C 导入 Swift"可以帮助您将 Objective C 代码集成到 swift 项目中

  2. 使用可可豆荚:
    Google Mobile Vision和CocoaPods文档可以帮助您,如何使用pod(cocoa pod)集成它
    将 podGoogleMobileVision/FaceDetector添加到您的 Podfile。


谷歌的以下教程将为您提供帮助。

  • 人脸检测概念概述将指导您了解其基本概念
  • 检测照片中的面部特征将帮助您在iOS中实现相同的功能
  • 使用GoogleMVDataOutput将面部跟踪添加到您的应用程序 - 完整的源代码。

您的要求过于宽泛,您可能需要 Swift 中的完整工作示例。从这些教程开始,如果您卡在任何地方,请告诉我。我一定会帮助你,但不能为你提供完整的工作源代码。

相关内容

  • 没有找到相关文章

最新更新