使用深度数据计算手的面积



使用Kinect传感器,我试图编写一个算法来检测握紧的拳头。我试图通过计算手所占的面积来实现这一点(因为紧握的拳头面积<非握拳区)。>

到目前为止我写的是:

  • 每像素深度信息(来自DepthStream)
  • 手的位置(来自骷髅流)

我很难弄清楚如何获得与手对应的深度数据。在Kinect给出的手的准确位置获取深度数据很容易,但我不知道如何获取手的所有深度数据。任何建议、伪代码和/或教程链接都会有所帮助。

有来自KinectInteractions的事件,无论何时拳头处于抓住模式或释放模式,因为它用于KinectScrollViewer中的kinectreregion:

HandPointGrip事件handpointgriprelease事件

也可能是这篇文章的副本

我在这个领域没有经验,但在我的搜索中发现了这一点。看看它是否有帮助:https://groups.google.com/forum/#!主题/openni-dev Kj2JL6K0PBw

最新更新