Keras嵌入层导致维度问题



我目前正在尝试将嵌入层包含到我的sequence-to-sequence自动编码器中,该编码器是用keras函数API构建的。

型号代码如下:

#Encoder inputs
encoder_inputs = Input(shape=(None,))
#Embedding
embedding_layer = Embedding(input_dim=n_tokens, output_dim=2)
encoder_embedded = embedding_layer(encoder_inputs)
#Encoder LSTM
encoder_outputs, state_h, state_c = LSTM(n_hidden, return_state=True)(encoder_embedded)
lstm_states = [state_h, state_c]

#Decoder Inputs
decoder_inputs = Input(shape=(None,)) 
#Embedding
decoder_embedded = embedding_layer(decoder_inputs)
#Decoder LSTM
decoder_lstm = LSTM(n_hidden, return_sequences=True, return_state=True, )
decoder_outputs, _, _ = decoder_lstm(decoder_embedded, initial_state=lstm_states)

#Dense + Time
decoder_dense = TimeDistributed(Dense(n_tokens, activation='softmax'), input_shape=(None, None, 256))
#decoder_dense = Dense(n_tokens, activation='softmax', )
decoder_outputs = decoder_dense(decoder_outputs)
model = Model([encoder_inputs, decoder_inputs], decoder_outputs)
model.compile(loss='categorical_crossentropy', optimizer='rmsprop', metrics=['accuracy'])

模型是这样训练的:

model.fit([X, y], X, epochs=n_epoch, batch_size=n_batch)

其中X和y具有形状(n_samples,n_seq_len(

模型的编译工作完美无瑕,而当尝试训练时,我总是会得到:

ValueError:检查目标时出错:预期的time_distributed_1到有3个维度,但得到了形状为(n_samples,n_seq_len(的阵列

有人知道吗?

Keras版本为2.2.4
Tensorflow后端版本1.12.0

在这样的自动编码器中,由于最后一层是softmax分类器,您需要对标签进行一次热编码:

from keras.utils import to_categorical
one_hot_X = to_categorical(X)
model.fit([X, y], one_hot_X, ...)

作为旁注,由于密集层应用在最后一个轴上,因此不需要将Dense层包裹在TimeDistributed层中。

相关内容

  • 没有找到相关文章

最新更新