如何提高 CNN 模型的准确性



我建立了一个cnn模型,将面部情绪分为快乐、悲伤、精力充沛和中性的面部。我使用了Vgg16预训练模型并冻结了所有图层。经过50个历元的训练,我的模型的测试精度为0.65。验证损失约为0.8。

我的列车数据文件夹有16000(4x4000(,验证数据文件夹有2000(4x500(,测试数据文件夹有4000(4x1000(rgb图像。

1( 你对提高模型精度有什么建议?

2( 我试着用我的模型做一些预测,预测的类总是一样的。是什么原因导致了问题?

到目前为止我尝试了什么

  1. 添加脱落层(0.5(
  2. 在最后一层之前添加密集(256,relu(
  3. 整理列车和验证数据
  4. 将学习率降低到1e-5

但我无法提高验证和测试的准确性。

我的代码

train_src = "/content/drive/MyDrive/Affectnet/train_class/"
val_src = "/content/drive/MyDrive/Affectnet/val_class/"
test_src="/content/drive/MyDrive/Affectnet/test_classs/"
train_datagen = tensorflow.keras.preprocessing.image.ImageDataGenerator(
rescale=1./255, 
shear_range=0.2,
zoom_range=0.2,
horizontal_flip=True,

)
train_generator = train_datagen.flow_from_directory(
train_src,
target_size=(224,224 ),
batch_size=32,
class_mode='categorical',
shuffle=True
)
validation_datagen = tensorflow.keras.preprocessing.image.ImageDataGenerator(
rescale=1./255
)
validation_generator = validation_datagen.flow_from_directory(
val_src,
target_size=(224, 224),
batch_size=32,
class_mode='categorical',
shuffle=True
)
conv_base = tensorflow.keras.applications.VGG16(weights='imagenet',
include_top=False,
input_shape=(224, 224, 3)
)
for layer in conv_base.layers:
layer.trainable = False
model = tensorflow.keras.models.Sequential()
# VGG16 is added as convolutional layer.
model.add(conv_base)
# Layers are converted from matrices to a vector.
model.add(tensorflow.keras.layers.Flatten())
# Our neural layer is added.
model.add(tensorflow.keras.layers.Dropout(0.5))
model.add(tensorflow.keras.layers.Dense(256, activation='relu'))
model.add(tensorflow.keras.layers.Dense(4, activation='softmax'))
model.compile(loss='categorical_crossentropy',
optimizer=tensorflow.keras.optimizers.Adam(lr=1e-5),
metrics=['acc'])
history = model.fit_generator(
train_generator,
epochs=50,
steps_per_epoch=100,
validation_data=validation_generator,
validation_steps=5,
workers=8
)

损失和准确性

好几件事。对于训练集,你说你有160000张图片。然而,如果批量大小为32,steps_per_epoch=100,那么对于任何给定的历元,您只在3200张图像上进行训练。类似地,您有2000个验证图像,但批量大小为32,validation_steps=5,您仅在5 X 32=160个图像上进行验证。现在Vgg是一个可以的模型,但我不使用它,因为它非常大,大大增加了训练时间,还有其他用于迁移学习的模型更小,甚至更准确。我建议您尝试使用EfficientNetB3。使用代码

conv_base = tensorflow.keras.applications.EfficientNetB3(weights='imagenet',
include_top=False,
input_shape=(224, 224, 3)
pooling='max'
)

如果pooling='max',则可以消除"压扁"层。此外,EfficientNet模型预计像素范围在0到255之间,因此在生成器中删除重缩放=1/255。接下来要做的是使用可调整的学习率。这可以使用Keras回调来完成。这里有相关文档。您想要使用ReduceLROnPlateau回调。这里有相关文档。将其设置为监视验证丢失。我建议的代码低于

rlronp=tf.keras.callbacks.ReduceLROnPlateau(monitor="val_loss",factor=0.5,
patience=1, verbose=1)

我还建议您使用回调EarlyStoping。文档在这里。我推荐的代码如下所示

estop=tf.keras.callbacks.EarlyStopping( monitor="val_loss", patience=4, verbose=1,
restore_best_weights=True)

现在是型号。它包括

callbacks=[rlronp, estop]

将你的学习率设置为.001。设置时期=50。estop回调如果被触发,将返回您的模型,该模型加载了来自验证损失最低的epoch的权重。我注意到你有代码

for layer in conv_base.layers:
layer.trainable = False

我知道教程告诉你要这样做,但我得到了更好的结果,让它可以训练,我已经在数百个模型上这样做了。

相关内容

最新更新