简介:首先,作为一个介绍,我非常"自豪"地问了我在StackOverflow上的第一个问题。我希望我能像别人帮助我一样帮助他们。
上下文:我正在开发一个应用程序,使用SURF算法搜索图像中的特征。我计算关键点,并使用SURF提取描述符。然后,我使用基于欧氏距离的brueforce匹配器来匹配图像1和图像2的描述符。问题是,我在两次不同的程序运行中没有得到相同的结果(使用相同的图像,我应该精确地说:p(。
输出:以下是输出,
3620个中的20个第一匹配上的第一个运行时
0: 0 89 0.292352
1: 1 997 0.186256
2: 2 1531 0.25669
3: 3 2761 0.24148
4: 4 2116 0.286187
5: 5 2996 0.201048
6: 6 3109 0.266272
7: 7 2537 0.17112
8: 8 2743 0.211974
9: 9 2880 0.208735
10: 10 2167 0.269716
11: 11 2431 0.164508
12: 12 1474 0.281442
13: 13 1867 0.161129
14: 14 329 0.18388
15: 15 1580 0.229825
16: 16 1275 0.254946
17: 17 1749 0.203006
18: 18 305 0.221724
19: 19 1501 0.224663
20: 20 917 0.20708
3620 中的20个第一匹配上的第二运行时
0: 0 1455 0.25669
1: 1 963 0.186256
2: 2 3008 0.150252
3: 3 2936 0.24148
4: 4 2172 0.286187
5: 5 2708 0.211974
6: 6 730 0.185199
7: 7 3128 0.266272
8: 8 750 0.181001
9: 9 2272 0.17112
10: 10 2842 0.208735
11: 11 55 0.229677
12: 12 2430 0.269716
13: 13 2360 0.164508
14: 14 1497 0.229825
15: 15 2443 0.254148
16: 16 1784 0.161129
17: 17 1209 0.254946
18: 18 311 0.18388
19: 19 944 0.228939
20: 20 533 0.221724
代码:这是我使用的部分代码
SurfFeatureDetector detector(400);
vector<KeyPoint> keypoints1, keypoints2;
detector.detect(img1, keypoints1);
detector.detect(img2, keypoints2);
SurfDescriptorExtractor extractor;
Mat descriptors1, descriptors2;
extractor.compute(img1, keypoints1, descriptors1);
extractor.compute(img2, keypoints2, descriptors2);
vector<DMatch> filteredMatches;
matching(descriptors1,descriptors2,filteredMatches,1);
这是匹配函数
void crossCheckMatching( const Mat& descriptors1, const Mat& descriptors2,
vector<DMatch>& filteredMatches12, int knn=1 )
{
BruteForceMatcher<L2<float>> matcher;
filteredMatches12.clear();
vector<vector<DMatch> > matches12, matches21;
matcher.knnMatch( descriptors1, descriptors2, matches12, knn );
matcher.knnMatch( descriptors2, descriptors1, matches21, knn );
debug_writeMatches("D:/jmartel/exec2-log.txt",matches12);
...
}
结论:SURF算法给出了"逼真"的输出,这在一定程度上通过在2个运行时使用相同的2张图像检测到相同数量的关键点来证明。BruteForceMatcher给了我非常奇怪的输出,日志文件证明了这一点,我可以输出的图像清楚地表明,它在两个运行时的匹配方式不同。
我也在GPU上实现了所有这些代码,我的观察结果类似。然而,SURF在GPU上提供了更多的点(具有相同的参数(
如果我们仔细观察这些点,有些距离是完全相似的,这可能是可能的,但很奇怪(即使两组点之间的描述符可以相等…(
(runtime 1) 1: 1 997 0.186256
/ (runtime 2) 1:1 963 0.186256
甚至更奇怪的
(runtime 1) 14: 14 329 0.18388
/ (runtime 2) 18: 18 311 0.18388
OpenCV2.0文档并没有从我读到的内容中说任何特别有趣的内容。请参阅此处的BruteForceMatcher C++OpenCV2.1文档
如果您有任何解释,或者我可以在代码中更改的任何内容,我将很高兴。谢谢你的帮助
朱利安,
你能检查一下featurs的订单吗?如果您有多个CPU,代码可能会并行运行,因此功能的顺序不相同(每次(。
你能更具体一点吗,即使它并行运行,为什么算法要给出不同的输出?
但你告诉我的是,我作为例子给出的输出并不相关,因为存在并行执行,这可以解释为什么在某些情况下距离完全相似=>2个运行时=2个相同的描述符对,具有2个不同的处理运行时索引=2个不同的输出顺序。。。然而,仍然存在的问题是,它不能给出相同的图像结果。。。我看到不同的对是链接的,为什么要因为并行性而更改它?难道没有别的东西吗?
如果差异真的很小,那么使用float与double可以产生差异。
您的不确定性可能源于使用指针地址作为哈希键,尽管这只是一种猜测。