我正在使用python
中的svm classifier
处理多标签分类问题。在训练之后,我想测试并获得算法最不自信的样本,即更接近决策边界的样本。我可以用sklearn决策函数(X(来预测样本的置信度得分。然而,如何确定哪一个最接近决策边界?那些值较低的?
我的代码在下面,所以代码:
clf=OneVsRestClassifier(svc)
clf.fit(X_train,y_train)
y_pred = clf.predict(X_test)
df=clf.decision_function(X_test)
print(df[0])
print(y_pred[0])
我得到以下输出:
[ 0.77338405 0.65244097 -0.73863779 -0.59712787 -0.78753861
-0.91293626 0.0031544 ]
[1 1 0 0 0 0 1]
在这种情况下,算法对哪一类最不确定-0.59712787和0.0031544?
是。接近于零的值最接近决策边界。若它是负的,它在决策边界的左边,类似地,若它是正的,它是决策边界的右边。