二元分类 - 计算每个类的精度平均值不等于总体精度



我有一个二元分类问题,每个类的例子数量是平衡的。在测试集上测试分类器的性能时,如果我使用两个类中的所有示例,则获得的准确率为 79.87%。但是,当单独测试类别时,每个类 1 的准确度为 73.41%,每个类 2 的准确度为 63.31%。问题是,如果我计算两个类的平均精度,即 (73.41 + 63.31(/2 = 68.36 %,它不等于 79.87 %。

这怎么可能?我正在使用 Keras 的 model.evaluate 函数来获取准确数字。我的代码如下:

 model.compile(loss='binary_crossentropy',
            optimizer=optim,
            metrics=['accuracy'])
earlystop = EarlyStopping(monitor='val_acc', min_delta=0.001, patience=5, verbose=0, mode='auto')
callbacks_list = [earlystop]
X_train, y_train, X_val, y_val = data()
hist = model.fit(X_train, y_train, validation_data=(X_val, y_val), epochs=30, batch_size=batch_size, shuffle=True, callbacks=callbacks_list)
#get training accuracy
training_accuracy = np.mean(hist.history["acc"])
validation_accuracy = np.mean(hist.history["val_acc"])
print("Training accuracy: %.2f%%" % (training_accuracy * 100))
print("Validation accuracy: %.2f%%" % (validation_accuracy * 100))
scores = model.evaluate(X_test, y_test, verbose=2)
y_pred = model.predict_classes(X_test)
print(metrics.classification_report(y_test, y_pred))
print("Testing loss: %.2f%%" % (scores[0]))
print("Testing accuracy: %.2f%%" % (scores[1]*100))

为什么我得到的结果没有加起来?我的设置非常简单,所以我确定我的代码中没有错误。谢谢!

我找不到您在代码中的哪个位置将类分开以测试每个类。

但是在np.mean(hist.history["val_acc"])中取历史的平均值存在很大问题。

历史在发展,你以可怕的准确性开始,每个时代都会提高价值。当然,唯一可以比较的值是最后一个。

相关内容

  • 没有找到相关文章

最新更新