当我的批量大小为1时,分配形状为[24,6410241024]的张量时,为什么我会得到ResourceExhausted



我的模型摘要:

Total params: 932,225
Trainable params: 928,897
Non-trainable params: 3,328

我使用loss="binary_crossentury"、优化器="sgd"和batch_size=1进行binary类语义分割。

241024x1024x3个训练图像的总数,而64则是第一个conv层的深度。

注意:我使用的是谷歌colab gpu运行时

我将steps_per_epoch传递给模型.fit,而不是batch_size,在这种情况下也不需要它,

H = model.fit(X_train, Y_train, validation_data=(X_valid, Y_valid),
steps_per_epoch=len(X_train)//BATCHSIZE, epochs=EPOCHS,
validation_steps=len(X_valid)//BATCHSIZE)
batch_size替换steps_per_epoch以某种方式解决了我的问题。
H = model.fit(X_train, Y_train, batch_size=BATCHSIZE,
epochs=EPOCHS, validation_data=(X_valid, Y_valid))

最新更新