我正在做一个关于离线签名验证的项目,我尝试了SIFT/SURF算法(OpenCV(来比较2个签名图像。
我注意到,当我通过两张相同的照片时,我会得到大约1000个关键点,但当我通过同一个人的两张不同签名的照片时我只得到大约70-80个关键点。当其中一张传递的照片是另一个人的签名,但风格相似时,我会得到50-60个关键点。有些点也根本不匹配,就像它们来自两个不同的地方一样。
我很清楚这些算法不适合我的任务,但我不太明白为什么。
有人能从数学/算法的角度向我解释一下原因吗?
签名验证是一项非常困难的任务,已经进行了大量的研究工作,但在比较签名对时仍然不太准确
SIFT/SURF
算法在这里没有帮助,因为模型需要学习一组更复杂的特征来比较签名
有一些基于Deep learning
的Offline signature verification
模型,您可以看到
- Dey等人2017[论文][代码]
- Hafmann等人2017【论文】【代码】