在卷积神经网络中,如何使用Maxout而不是ReLU作为激活函数


model = Sequential()

model.add(Conv2D(256, (3, 3), input_shape=X.shape[1:]))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))

如何使用Maxout而不是"relu"进行激活?

您可以使用tensorflow_addons.layers.Maxout添加Maxout激活功能

import tensorflow_addons as tfa
model = Sequential()
model.add(Conv2D(256, (3, 3), input_shape=X.shape[1:]))
model.add(tfa.layers.Maxout(256))
model.add(MaxPooling2D(pool_size=(2, 2)))

您可以通过以下方式安装tensorflow_addons:

pip install tensorflow-addons

最新更新