我想对由五个类组成的图像进行分类。我想使用CNN。但当我尝试几种模型时,训练准确率不会提高超过20%。请有人帮助我克服这一点。大多数模型将在3个时期内进行训练,当时期增加时,精度不会提高。有人能给我建议一个解决方案或模型吗?或者能具体说明问题所在吗?
下面是我使用的模型之一
#defining training and test sets
x_train,x_val,y_train,y_val=train_test_split(x,y,test_size=0.2, random_state=42)
print('Training data and target sizes: n{}, {}'.format(x_train.shape,y_train.shape))
print('Test data and target sizes: n{}, {}'.format(x_val.shape,y_val.shape))
培训数据和目标规模:(2398222243(,(2398,(测试数据和目标大小:(6002242243(,(600,(
img_rows, img_cols, img_channel = 224, 224, 3
base_model = applications.inception_v3.InceptionV3(include_top=False, weights='imagenet',pooling='avg', input_shape=(img_rows, img_cols, img_channel))
print(base_model.summary())
#Adding custom Layers
add_model = Sequential()
add_model.add(Dense(1024, activation='relu',input_shape=base_model.output_shape[1:]))
add_model.add(Dropout(0.60))
add_model.add(Dense(1, activation='sigmoid'))
print(add_model.summary())
# creating the final model
model = Model(inputs=base_model.input, outputs=add_model(base_model.output))
# compile the model
opt = optimizers.Adam(lr=0.001, beta_1=0.9, beta_2=0.999, epsilon=1e-08, decay=0.0)
reduce_lr = ReduceLROnPlateau(monitor='val_acc',
patience=5,
verbose=1,
factor=0.1,
cooldown=10,
min_lr=0.00001)
model.compile(
loss='categorical_crossentropy',
metrics=['acc'],
optimizer='adam'
)
print(model.summary())
n_fold = 5
kf = model_selection.KFold(n_splits = n_fold, shuffle = True)
eval_fun = metrics.roc_auc_score
model.fit(x_train,y_train,epochs=50,batch_size=50,validation_data=(x_val,y_val))
您可以共享代码中适合模型的部分吗。帖子中没有。
由于缺乏数据,输出无法再现,我建议您通过此链接https://www.kaggle.com/kenconstable/alzheimer-s-multi-class-classification
它解释得很好,给出了基于迁移学习和从头开始的多类分类的最佳实践。如果你觉得这没有帮助,分享包括model.fit((代码在内的训练脚本会很有帮助。
好吧,问题来了,在您的代码中,您可能正在创建一个具有initiation V3的基本模型,但是,您并没有真正将该基本模型添加到add_model
变量中。
add_model
变量本质上是一个密集网络,而不是CNN。此外,还有一件事,尽管这不是什么大不了的事,那就是你正在创建自己的优化器opt
,而不是在model.compile
中使用它
你能试一下这个代码吗?如果它有效的话,请告诉我:
# function to build the model
def build_transfer_model(conv_base,dropout,dense_node,learn_rate,metric):
"""
Build and compile a transfer learning model
Input: a base model, dropout rate, the number of filters in the dense node,
the learning rate and performance metrics
Output: A compiled CNN model
"""
# clear previous run
backend.clear_session()
# build the model
model = Sequential()
model.add(conv_base)
model.add(Dropout(dropout))
model.add(BatchNormalization())
model.add(Flatten())
model.add(Dense(dense_node,activation='relu'))
model.add(Dense(1,activation='sigmoid'))
# complile the model
model.compile(
optimizer = tensorflow.keras.optimizers.Adam(lr=learn_rate),
loss = 'categorical_crossentropy',
metrics = metric )
model.summary()
return model
img_rows, img_cols, img_channel = 224, 224, 3
base_model = applications.inception_v3.InceptionV3(include_top=False, weights='imagenet',pooling='avg', input_shape=(img_rows, img_cols, img_channel))
model = build_transfer_model(conv_base=base_model,dropout=0.6,dense_node =1024,learn_rate=0.001,metric=['acc'])
print(model.summary())
model.fit(x_train,y_train,epochs=50,batch_size=50,validation_data=(x_val,y_val))
如果您注意函数,我们要添加到Sequential()
实例中的第一件事就是基础层(在您的情况下是InceptionV3(。但你直接添加了一个致密层。尽管它可能从基础初始V3的输出层获得权重,但它将是一个密集的网络,而不是CNN。所以请检查一下。
我可能已经更改了变量名,尽管我尝试过不这样做。并且,请根据您的需求更改build_transfer_model函数中各层的顺序。
如果不起作用,请告诉我。谢谢
编译后,必须使用model.fit((来实际训练模型。现在,它已经随机初始化了权重,因此正在进行随机预测。由于您有五个类,因此准确度大约为1/5=20%。训练你的模型可能需要时间,这取决于模型的大小和你所拥有的数据量。