用于增强现实和虚拟现实的 3D 多点触控原型



我不确定我问的问题属于这一类。但是,我想知道3D多点触控增强和虚拟现实的原型(在下面的视频中)是如何开发的。使用什么编程技术?什么算法?我想知道这项令人敬畏的技术。

https://www.youtube.com/watch?v=Tw1mXjMshJE

这在视频描述中得到了很好的解释:

在本视频中,我将演示我在德国波恩弗劳恩霍夫FIT的硕士论文中开发的3D交互原型。该系统使用深度感应相机,该相机基于飞行时间原理并测量反射红外信号的相移。我的贡献是计算机视觉算法,手势识别技术以及演示应用程序的概念和实现。

他使用基于飞行时间的深度摄像头(即与Kinect2相同的技术),并提取手/手指。 不知道他这样做的计算机视觉算法是否已经发布,但你可以从OpenCV上得到一个良好的开端。 获得手和手指的 3D 信息后,可以使用任何 3D 图形编程环境(低级 OpenGL、Unity3D 等)完成图形部分。

最新更新