Scikit-learn:precision_recall_fscore_support返回奇怪的结果



我正在做一些文本最小化/分类,并尝试使用 sklearn.metrics 模块中的 precision_recall_fscore_support 函数评估性能。我不确定如何创建一个非常小的例子来重现问题,但也许有人可以提供帮助,因为这是我明显缺少的东西。

上述函数返回对每个类的支持。文档指出

支持:int(如果平均值不是 None)或 int 数组,形状 = [n_unique_labels] : 每个标签在y_true中的出现次数。

但就我而言,返回支持的类数与测试数据中不同类的数量不同。

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.5)
classifier = svm.SVC(kernel="linear")
classifier.fit(X_train, y_train)
y_pred = classifier.predict(X_test)
prec, rec, fbeta, supp = precision_recall_fscore_support(y_test, y_pred)
print(len(classifier.classes_)) # prints 18
print(len(supp))                # prints 19
print(len(np.unique(y_test)))   # prints 18

这怎么可能?如何支持不在数据中的类?

我不确定问题是什么,但就我而言,分类器学习的类与测试数据中发生的类之间似乎不匹配。可以强制函数通过显式命名来计算正确类的性能度量。

prec, rec, fbeta, supp = precision_recall_fscore_support(y_test, y_pred, labels=classifier.classes_)

相关内容

  • 没有找到相关文章

最新更新