由于batch_size问题,有状态 LSTM 无法预测



我能够使用 keras 成功训练我的有状态 LSTM。我的批量大小为 60,我在网络中发送的每个输入都可以被batch_size整除 以下是我的片段:

model = Sequential()
model.add(LSTM(80,input_shape = trainx.shape[1:],batch_input_shape=(60, 
trainx.shape[1], trainx.shape[2]),stateful=True,return_sequences=True))
model.add(Dropout(0.15))
model.add(LSTM(40,return_sequences=False))
model.add(Dense(40))
model.add(Dropout(0.3))
model.add(Dense(output_dim=1))
model.add(Activation("linear"))
keras.optimizers.RMSprop(lr=0.005, rho=0.9, epsilon=1e-08, decay=0.0)
model.compile(loss="mse", optimizer="rmsprop")

我的训练线运行成功:

model.fit(trainx[:3000,:],trainy[:3000],validation_split=0.1,shuffle=False,nb_epoch=9,batch_size=60)

现在我尝试在再次可被 60 整除的测试集上进行预测,但我得到错误:

值错误:在有状态网络中,应仅传递带有 可除以批量大小的样本数。找到: 240 样品。批量大小:32。

谁能告诉我上面出了什么问题?我很困惑,尝试了很多事情,但没有任何帮助。

我怀疑错误的原因是您没有在model.predict中指定批量大小。正如您在"预测"部分的文档中看到的那样,默认参数是

model.predict(self, x, batch_size=32, verbose=0)

这就是为什么 32 出现在您的错误消息中的原因。所以你需要在model.predict中指定batch_size=60.

最新更新