手动计算分类精度与 keras 给出的不匹配



我在解释Kerasmodel.fit()方法的输出时遇到问题。

设置

print(tf.version.VERSION) # 2.3.0
print(keras.__version__) # 2.4.0

我有一个3类分类问题的简单前馈模型:

def get_baseline_mlp(signal_length):
input_tensor = keras.layers.Input(signal_length, name="input")
dense_1 = keras.layers.Flatten()(input_tensor)
dense_1 = keras.layers.Dense(name='dense_1',activation='relu',units=500)(dense_1)
dense_1 = keras.layers.Dense(name='dense_2',activation='relu',units=500)(dense_1)
dense_1 = keras.layers.Dense(name='dense_3',activation='relu',units=500)(dense_1)
dense_1 = keras.layers.Dense(name='dense_4',activation='softmax',units=3, bias_initializer='zero')(dense_1)
model = keras.models.Model(inputs=input_tensor, outputs=[dense_1])
model.summary()
return model

我的训练数据是单变量时间序列,我的输出是长度为3的一个热编码向量(我的分类问题中有3个类(

模型编译如下:

mlp_base.compile(optimizer=optimizer, 
loss='categorical_crossentropy',
metrics=['categorical_accuracy'])

我有一个用两种方法手动计算预测准确性的功能:

def get_accuracy(model, true_x, true_y): 
res = model.predict(true_x)
res = np.rint(res)
right = 0
for i in range(len(true_y[:, 0])):
if np.array_equal(res[i, :], true_y[i, :]):
#print(res[i,:], tr_y[i,:])
right += 1
else:
pass
tot = len(true_y[:,0])
print('True - total', right, tot)
print('acc: {}'.format((right/tot)))
print()
print(' method 2 - categorical')
res = model.predict(true_x)
res = np.argmax(res, axis=-1)
true_y = np.argmax(true_y, axis=-1)
right = 0
for i in range(len(true_y)):
if res[i] == true_y[i]:
right += 1
else:
pass
tot = len(true_y)
print('True - total', right, tot)
print('acc: {}'.format((right/tot)))

问题

在训练结束时,输出的分类精度与我使用自定义函数得到的精度不匹配。

培训输出:

Model: "functional_17"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
input (InputLayer)           [(None, 9000)]            0         
_________________________________________________________________
flatten_8 (Flatten)          (None, 9000)              0         
_________________________________________________________________
dense_1 (Dense)              (None, 500)               4500500   
_________________________________________________________________
dense_2 (Dense)              (None, 500)               250500    
_________________________________________________________________
dense_3 (Dense)              (None, 500)               250500    
_________________________________________________________________
dense_4 (Dense)              (None, 3)                 1503      
=================================================================
Total params: 5,003,003
Trainable params: 5,003,003
Non-trainable params: 0
-------------------------------------------------------------------
Fit model on training data
Epoch 1/2
20/20 [==] - 0s 14ms/step - loss: 1.3796 categorical_accuracy: 0.3250 - val_loss: 0.9240 - 
Epoch 2/2
20/20 [==] - 0s 8ms/step - loss: 0.8131 categorical_accuracy: 0.6100 - val_loss: 1.2811

精度功能输出:

True / total 169 200
acc: 0.845
method 2
True / total 182 200
acc: 0.91

为什么我得到了错误的结果?我的准确性实现是错误的吗?

更新

按照desertnaut的建议更正设置仍然无效。

拟合输出:

Epoch 1/3
105/105 [===] - 1s 9ms/step - loss: 1.7666 - categorical_accuracy: 0.2980
Epoch 2/3
105/105 [===] - 1s 6ms/step - loss: 1.2380 - categorical_accuracy: 0.4432
Epoch 3/3
105/105 [===] - 1s 5ms/step - loss: 1.0318 - categorical_accuracy: 0.5989

如果我使用keras的分类精度函数,我仍然会得到不同的结果。

cat_acc =  keras.metrics.CategoricalAccuracy()
cat_acc.update_state(tr_y2, y_pred)
print(cat_acc.result().numpy()) # outputs : 0.7211079

有趣的是,如果我用上面的方法计算验证的准确性,我会得到一致的输出。

不太确定您的精度计算(似乎不必要复杂,我们总是喜欢向量计算而不是for循环(,但您的代码中有两个问题可能会影响结果(甚至使其变得毫无意义(。

第一个问题是,由于您处于多类设置中,因此应该使用loss='categorical_crossentropy'编译模型,而不是使用'binary_crossentropy';在"为什么二进制交叉熵和类别交叉熵对同一问题具有不同的性能?"中检查自己的答案?看看当你把损失混合在一起时会发生什么;精度(另外,这里的'binary_accuracy'绝对没有意义(。

第二个问题是,您错误地将activation='sigmoid'用于最后一层:由于您处于多类(而非多标签(设置中,标签为一个热编码,因此最后一层中的激活应为softmax,而不是sigmoid

最新更新