使用二进制交叉熵时输入和输出形状不匹配 |Keras tf autoencoder.



我正在构建一个自动编码器,可以接收 16x16 的拼合图像,但不断收到以下错误:

ValueError: A target array with shape (999, 16, 16, 256) was passed for an output of shape (None, 256) while using as loss `binary_crossentropy`. This loss expects targets to have the same shape as the output.

我的尝试:我认为我必须在topk层之后重塑解码器内部的张量,但它没有解决错误,只是输出了更多错误。我在下面注释了我的尝试。 我相信我需要做某种类型的重塑,以便输入形状和输出形状匹配,以便二进制交叉熵损失可以工作。

这是我的代码的最小工作示例:

encoding_dim = 16
input_img = tf.keras.layers.Input(shape=(16, 16, 256), name ="input")
# flatten your images
flatten = tf.keras.layers.Flatten()(input_img)
encoded = tf.keras.layers.Dense(encoding_dim, activation='relu')(flatten)
encoded2 = tf.keras.layers.Dense(256, activation='sigmoid')(encoded)
# top_k layer
topk = tf.keras.layers.Lambda(lambda x: tf.nn.top_k(x, k=int(int(x.shape[-1])/2),
sorted=True,
name="topk").values)(encoded)
decoded = tf.keras.layers.Dense(128, activation='relu')(topk) 
decoded2 = tf.keras.layers.Dense(256, activation='sigmoid')(decoded)
#decoded3 = tf.keras.layers.Reshape((16,16,256))(decoded2)
autoencoder = tf.keras.Model(input_img, decoded2)
autoencoder.compile(optimizer = 'adadelta', 
loss='binary_crossentropy')
autoencoder.fit(x_train, x_train,
epochs=100,
batch_size=256,
shuffle=False,
validation_data=(x_test, x_test))

目前,您的输入形状为(batch, 16, 16, 256)

如果要显式指定batch256,则应使用batch_shape参数,而不是shapeInput图层内部。不过,您不应该这样做,因为最好保持灵活性,以防您想更改它(或者通常情况下批次的大小不相等)。

输出必须具有相同的形状,因此应在最后一个输出节点处使用keras.layers.Reshape((16, 16))进行keras.layers.Dense(16 * 16, activation="sigmoid")。请注意,您没有在任何地方指定批处理,而只指定其余维度。

最新更新