我试图比较两个图像,并使用Hu moment来比较从这些图像中提取的轮廓:https://docs.google.com/file/d/0ByS6Z5WRz-h2WHEzNnJucDlRR2s/edit 和 https://docs.google.com/file/d/0ByS6Z5WRz-h2VnZyVWRRWEFva0k/edit第二个图像等于第一个图像,只是它被旋转了,我期望结果是相同的Humoments。它们有点不同。
右边的Humoments标志(第一张图片):
[[ 6.82589151e-01]
[ 2.06816713e-01]
[ 1.09088295e-01]
[ 5.30020870e-03]
[ -5.85888607e-05]
[ -6.85171823e-04]
[ -1.13181280e-04]]
右边的Humoments标志(第二张图片):
[[ 6.71793060e-01]
[ 1.97521128e-01]
[ 9.15619847e-02]
[ 9.60179567e-03]
[ -2.44655863e-04]
[ -2.68791106e-03]
[ -1.45592441e-04]]
在此视频中: http://www.youtube.com/watch?v=O-hCEXi3ymU在第4分钟,我看到他得到了完全相同的结果。我错在哪里?
这是我的代码:
nomeimg = "Sassatelli 1984 ruotato.jpg"
#nomeimg = "Sassatelli 1984 n. 165 mod1.jpg"
img = cv2.imread(nomeimg)
gray = cv2.imread(nomeimg,0)
ret,thresh = cv2.threshold(gray,127,255,cv2.THRESH_BINARY_INV)
element = cv2.getStructuringElement(cv2.MORPH_CROSS,(4,4))
imgbnbin = thresh
imgbnbin = cv2.dilate(imgbnbin, element)
#find contour
contours,hierarchy=cv2.findContours(imgbnbin,cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_SIMPLE)
#Elimination small contours
Areacontours = list()
area = cv2.contourArea(contours[i])
if (area > 90 ):
Areacontours.append(contours[i])
contours = Areacontours
print('found objects')
print(len(contours))
#contorus[3] for sing in first image
#contours[0] for sign in second image
print("humoments")
mom = cv2.moments(contours[0])
Humoments = cv2.HuMoments(mom)
print(Humoments)
你的数字可能还可以,它们之间的差异很小。正如您链接的视频中所说的那样(大约 3 分钟):
为了得到一些有意义的答案,我们进行对数转换
因此,如果我们对您上面发布的数据进行-np.sign(a)*np.log10(np.abs(a))
,我们会得到:
第一张图片:
[[ 0.16584062]
[ 0.68441437]
[ 0.96222185]
[ 2.27570703]
[-4.23218495]
[-3.16420051]
[-3.9462254 ]]
第二张图片:
[[ 0.17276449]
[ 0.70438644]
[ 1.0382848 ]
[ 2.01764754]
[-3.61144437]
[-2.57058511]
[-3.83686117]]
它们不完全相同的事实是意料之中的。您从光栅化图像开始,然后对其进行大量处理以获得您传入的一些轮廓。
来自 opencv 文档:
对于光栅图像,原始图像和转换图像的计算 Hu 不变量略有不同。