我愿意为6台鱼眼相机进行360°全景拼接。
为了找到相机之间的关系,我需要计算单应矩阵。后者通常是通过在图像中找到特征并进行匹配来计算的。
但是,对于我的相机设置我已经知道:
- 我通过相机校准计算的内在相机矩阵K
- 外部摄影机参数R和t。相机方向是固定的,在任何点都不会改变。摄像机位于已知直径d的圆上,每个摄像机的位置相对于该圆偏移60°
因此,我认为我可以手动计算单应矩阵,我认为这将导致比执行特征匹配更准确的方法。
在文献中,我发现了以下公式来计算将图像2与图像1相关的单应矩阵:
H_2_1 = (K_2) * (R_2)^-1 * R_1 * K_1
这个公式只考虑了相机之间的旋转角度,而没有考虑在我的情况下存在的平移矢量。
如何在计算H时插入每个相机的平移t
我已经尝试在不考虑翻译的情况下计算H,但是作为d>1米,图像在全景图中没有准确对齐。
编辑:
根据Francesco下面的回答,我得到了以下问题:
在校准鱼眼透镜后,我得到了一个焦距为
f=620
的矩阵K
,用于大小为1024 x 768的图像。这被认为是大焦距还是小焦距?我的相机位于一个直径为1米的圆圈上。下面的解释使我清楚地认识到;"大";在相机之间平移,我对相对靠近它们的物体有显著的重影效果。因此,如果同态模型不能完全表示相机的位置,是否可以使用另一个模型,如基本/基本矩阵来进行图像拼接
您不能"插头";翻译:它的存在和一个非平凡的旋转在数学上意味着图像之间的关系不是单应性的。
然而,如果成像的场景是并且出现在;足够远";从相机,即,如果与场景对象到相机的距离相比,相机之间的平移很小,并且相机的焦距足够小,则可以使用纯旋转引起的单应性作为近似。
你的方程式错了。正确的公式如下:
- 在齐次坐标中拍摄相机1:
p_1 = (x, y, 1)
中的像素 - 将其反向投影到三维空间中的光线中:
P_1 = inv(K_1) * p_1
- 分解相机2:
P_2 = R_2_1 * P1
坐标中的光线 - 将光线投影到相机2:
p_2 = K_2 * P_2
中的像素中 - 将方程式放在一起:
p_2 = [K_2 * R_2_1 * inv(K_1)] * p_1
乘积H = K2 * R_2_1 * inv(K1)
是由纯旋转R_2_1
引起的单应性。旋转会将点从第1帧转换到第2帧。它由3x3矩阵表示,其列是在帧2中分解的帧1的x、y、z轴的分量。如果您的设置为您提供了所有相机相对于公共帧0的旋转,即R_i_0
,那么它就是R_2_1 = R_2_0 * R_1_0.transposed
。
一般来说,应该使用上述单应性作为初始估计,通过匹配点和优化来进行细化。这是因为(a(单应性模型本身只是一个近似值(因为它忽略了平移(,以及(b(机械设置(即使是校准的设置(给出的旋转受到误差的影响。使用匹配的像素来优化变换将最大限度地减少图像上重要位置的误差,而不是在抽象的旋转空间中。