Keras输出的批量大小与我的训练集不同

  • 本文关键字:输出 Keras tensorflow batchsize
  • 更新时间 :
  • 英文 :


我有一个关于keras输出中显示的批量大小的问题。我已经阅读了关于如何解释keras输出的类似文章,并发现result中显示的数字219就是batch_size的数字。但是,您可以看到我的X_train batch_size是7000,而不是219。这个219是从哪里来的?

X_train.shape # (7000, 50, 1)
Y_train.shape # (7000, 50, 10)

model = keras.models.Sequential([
keras.layers.SimpleRNN(20, return_sequences=True, input_shape=[None, 1]),
keras.layers.SimpleRNN(20, return_sequences=True),
keras.layers.TimeDistributed(keras.layers.Dense(10))
])
model.compile(loss="mse", optimizer=keras.optimizers.Adam(lr=0.01))
history = model.fit(X_train, Y_train, epochs=10)

部分结果:

model.compile(loss="mse", optimizer=keras.optimizers.Adam(lr=0.01))...
Epoch 1/10
219/219 [==============================] - 2s 8ms/step - loss: 6.0260e-06
Epoch 2/10
219/219 [==============================] - 2s 8ms/step - loss: 1.1669e-08
Epoch 3/10
219/219 [==============================] - 2s 8ms/step - loss: 7.6153e-08

在模型中。如果默认批量大小为32。因此,如果你有7000个样本,那么每个历元的步长是7000/32=218.75,四舍五入到219。因此,这意味着通过7000个样本,它为每批提取32个图像,并进行219次。

最新更新