model = Sequential()
model.add(Conv2D(256, (3, 3), input_shape=X.shape[1:]))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
如何使用Maxout而不是"relu"进行激活?
您可以使用tensorflow_addons.layers.Maxout
添加Maxout
激活功能
import tensorflow_addons as tfa
model = Sequential()
model.add(Conv2D(256, (3, 3), input_shape=X.shape[1:]))
model.add(tfa.layers.Maxout(256))
model.add(MaxPooling2D(pool_size=(2, 2)))
您可以通过以下方式安装tensorflow_addons:
pip install tensorflow-addons