使用立体相机从视差图进行深度重建



我正在研究视差图的深度重建。我使用OpenCV来校准我的立体相机,然后取消失真并校正图像。我使用LibELAS来计算视差图。

我的问题是:根据OpenCV文档(https://docs.opencv.org/3.1.0/dd/d53/tutorial_py_depthmap.html(,深度由depth = Baseline*focal_length/disparity计算。但根据米德尔伯里数据集(http://vision.middlebury.edu/stereo/data/scenes2014/(,深度是通过depth = baseline * focal_length / (disparity + doffs)计算的。"doffs"是"主点的x差异,doffs = cx1 - cx0"。

"doffs"是什么意思?如何从 OpenCV 校准中获得"偏差"?

OpenCV校准为您提供了两台相机的内在矩阵。这些是具有以下样式的 3x3 矩阵:(来自文档(

  fx  0  cx
  0  fy  cy
  0   0   1

cxcy是你原则点的坐标。从那里您可以按照您的说明计算doffs。对于理想的相机,这些参数是图像的中心。但在真正的相机中,它们在几个像素上有所不同。

最新更新