是否可以在不使用Unity的情况下在ARCore / Sceneform(增强现实)中确定用户的凝视?



我可以使用 Unity 在 ARCore中创建 gazePointer (如:https://codelabs.developers.google.com/codelabs/arcore-intro/#10 所示),但是是否可以在没有 Unity 的情况下做同样的事情(仅使用 ARCore/Sceneform)?

我需要在增强现实中复制的功能是检测用户对预定义 2D 参考图像的凝视,如果凝视时间超过 5 秒,则应实施特定操作。我们可以假设"凝视"是用户视图的绝对中心。

注意:我打算在像Google Cardboard这样的耳机的立体模式下执行此操作(即未覆盖手机摄像头)。

您引用的 ARCore Unity 示例使用了 ARCore Unity API 的 Frame 类的 Raycast 函数。ARCore Sceneform API 中的等效函数似乎是 Scene 类的 hitTest 函数。

最新更新