我正在 Keras 中训练一个 seq-to-seq 自动编码器,我的输入是(num_examples, time_step, num_features)
。问题是,所有示例的num_features
都不相同,此外,我将在未来获得其他未知num_feature
大小的示例。
到目前为止,我的代码是:
# model architecture
inputs = Input(shape=data.shape[1:])
encoded1 = LSTM(32, return_sequences=True)(inputs)
encoded2 = LSTM(32)(encoded1)
latent_space = Dense(encoding_size)(encoded2)
decoded1 = RepeatVector(1)(latent_space)
decoded2 = LSTM(encoding_size, return_sequences=True)(decoded1)
sequence_autoencoder = Model(inputs, decoded2)
我尝试了:inputs = Input(shape=(1, None))
但它抛出了一个错误。关于我如何处理这个问题的任何想法?
在使用 lstm 时,可以通过将 None 设置为输入形状中的时间步来处理输入的不同大小。
inputs = Input(shape=(BATCH_SIZE,None,channels))
通过这种方式,您可以将可变大小的输入馈送到 LSTM。