这些是使用Keras的代码示例,我的意思是:
提取最后一个完全连接的层:
original_model = VGG19(include_top=True, weights='imagenet', input_shape=(224, 224, 3))
layer_name = 'fc2'
x = Dropout(0.5)(original_model.get_layer(layer_name).output)
x = BatchNormalization()(x)
predictions = Dense(num_classes, activation='softmax')(x)
features_model = Model(inputs=original_model.input, outputs=predictions)
adam = optimizers.Adam(lr=0.001)
features_model.compile(optimizer=adam, loss='categorical_crossentropy', metrics=['accuracy'])
features_model.summary()
return features_model
在最后一个卷积层之后添加一个完全连接层:
original_model = VGG19(include_top=False, weights='imagenet', input_shape=(224, 224, 3))
x = Flatten()(base_model.output)
x = Dense(4096, activation='relu')(x)
x = Dropout(0.5)(x)
x = BatchNormalization()(x)
predictions = Dense(num_classes, activation='softmax')(x)
head_model = Model(input=base_model.input, output=predictions)
adam = optimizers.Adam(lr=0.001)
head_model.compile(optimizer=adam, loss='categorical_crossentropy', metrics=['accuracy'])
head_model.summary()
return head_model
在进行迁移学习时,选择什么有经验法则吗?
根据我过去的经验,将股票市场的迁移学习成功应用于商业预测,你应该保持原始结构,因为如果你在进行迁移学习,你会希望加载从原始结构训练的权重,而不会出现神经网络架构差异的问题。然后你解冻部分CNN,你的神经网络训练将从高精度开始训练,并根据目标问题调整权重。
然而,如果移除Flatten
层,则计算成本将降低,因为要训练的参数将更少。
我遵循的规则是保持神经网络尽可能简单(等于更大的泛化性质(,效率很高。
@Kamen,作为对您评论的补充,关于您需要多少数据,这取决于您的数据的差异。方差越大,你就需要更多的层次和权重来了解细节。然而,当你增加架构的复杂性时,你的神经网络将更容易过度拟合,例如,使用Dropout可以减少过度拟合。
由于完全连接层是神经网络中更昂贵的部分,如果你添加其中的一个或两个,你的参数数量会增加很多,需要更多的时间来训练。使用更多的层,您将获得更高的精度,但您可能会过度填充。
例如,具有10000个示例的MNIST可以通过一个非常简单的架构达到99%以上的准确率。然而,IMAGENET有1000000个示例(155GB(,然后需要更复杂的结构,如VGG16。