使用svm分类器确定最不自信的分数



我正在使用python中的svm classifier处理多标签分类问题。在训练之后,我想测试并获得算法最不自信的样本,即更接近决策边界的样本。我可以用sklearn决策函数(X(来预测样本的置信度得分。然而,如何确定哪一个最接近决策边界?那些值较低的?

我的代码在下面,所以代码:

clf=OneVsRestClassifier(svc)
clf.fit(X_train,y_train)
y_pred = clf.predict(X_test)
df=clf.decision_function(X_test)
print(df[0])
print(y_pred[0])

我得到以下输出:

[ 0.77338405  0.65244097 -0.73863779 -0.59712787 -0.78753861 
-0.91293626  0.0031544 ]
[1 1 0 0 0 0 1]

在这种情况下,算法对哪一类最不确定-0.59712787和0.0031544?

是。接近于零的值最接近决策边界。若它是负的,它在决策边界的左边,类似地,若它是正的,它是决策边界的右边。

最新更新