将Kinect深度图像转换为真实世界坐标



我正在使用OpenNI 2.x、c++、OpenCV处理kinect。

我能够获得动力学深度流,并获得灰度cv::Mat。只是为了展示它是如何定义的:

cv::Mat m_depthImage;
m_depthImage= cvCreateImage(cvSize(640, 480), 8, 1);

我假设最接近的值由"0"表示,最远的值为"255"。

之后,我将深度坐标转换为世界坐标。我在cv::Mat灰度矩阵的每个元素中进行操作,并在PointsWorld[640*480]中收集数据。为了显示这些数据,我调整了比例,以收集2000x2000x2000矩阵中的值。

cv::Point3f depthPoint;
cv::Point3f PointsWorld[640*480];
for (int j=0;j<m_depthImage.rows;j++)
    {
        for(int i=0;i<m_depthImage.cols; i++)
        {
            depthPoint.x = (float) i;
            depthPoint.y = (float) j;
            depthPoint.z = (float) m_depthImage.at<unsigned char>(j, i);
            if (depthPoint.z!=255)
            {
                  openni::CoordinateConverter::convertDepthToWorld(*m_depth,depthPoint.x,depthPoint.y,depthPoint.z, &wx,&wy,&wz);
                wx = wx*7,2464; //138->1000
                if (wx<-999)    wx = -999;
                if (wx>999)     wx = 999;
                wy = wy*7,2464; //111->1000 with 9,009
                if (wy<-999)    wy = -999;
                if (wy>999)     wy = 999;
                wz=wz*7,8431;   //255->2000
                if (wz>1999)        wy = 1999;
                Xsp = P-floor(wx);
                Ysp = P+floor(wy);
                Zsp = 2*P-floor(wz);
                PointsWorld[k].x = Xsp;
                PointsWorld[k].y = Ysp;
                PointsWorld[k].z = Zsp;
                k++;
            }
        }
    }

但我确信,这样做并不能让我理解点之间的真实距离。x,y,z坐标意味着什么?有一种方法可以知道点之间的真实距离,比如矩阵"255"的灰度值有多远?wx,wy,wz它们是干什么的?

如果您有使用OpenNI支持构建的OpenCV,您应该能够执行以下操作:

int ptcnt;
cv::Mat real;
cv::Point3f PointsWorld[640*480];
if( capture.retrieve(real, CV_CAP_OPENNI_POINT_CLOUD_MAP)){
    for (int j=0;j<m_depthImage.rows;j++)
    {
        for(int i=0;i<m_depthImage.cols; i++){
            PointsWorld[ptcnt] = real.at<cv::Vec3f>(i,j);
            ptcnt++;
        }
    }
}

相关内容

  • 没有找到相关文章

最新更新