使用Kinect的3D物体跟踪检测



我正在使用Kinect传感器识别物体,以便获得物体的x,y,z坐标。

我试图找到相关的信息,但不能找到太多。我也看过视频,但没有人分享信息或任何示例代码?这就是我想要实现的https://www.youtube.com/watch?v=nw3yix3XomY

可能很少有人会问同样的问题,但由于我是Kinect和这些库的新手,因此我需要更多的指导。

我在某个地方读到,使用Kinect v1无法进行物体检测。我们需要使用第三方库,如open CV或点云(pcl)。

有人可以帮助我,即使使用第三方库,我如何准确地通过Kinect传感器识别物体?

这真的很有帮助。

谢谢。

正如你在评论中所链接的视频的作者所说,遵循这个PCL教程将对你有所帮助。正如您已经发现的那样,使用独立SDK可能无法实现这一点。依靠PCL将帮助您不必重新发明轮子。

这个想法是:

  1. 对云进行下采样,以便在接下来的步骤中处理更少的数据(这也减少了一点噪声)。
  2. 确定关键点/特征(即点,区域,纹理在某些转换中保持不变)。
  3. 计算关键点描述符,这些特征的数学表示。
  4. 对于每个场景关键点描述符,在模型关键点描述符云中找到最近的邻居,并将其添加到对应向量中。
  5. 对关键点进行聚类,检测场景中的模型。

教程中的软件需要用户手动输入模型和场景文件。它不会像你链接的视频那样在实时feed中这样做。

这个过程应该非常相似。我不确定检测的cpu密集程度,因此可能需要额外的性能调整。

一旦你有了逐帧检测,你就可以开始考虑跨帧跟踪对象。但那是另一个话题了

相关内容

  • 没有找到相关文章

最新更新