我的模型摘要:
Total params: 932,225
Trainable params: 928,897
Non-trainable params: 3,328
我使用loss="binary_crossentury"、优化器="sgd"和batch_size=1进行binary类语义分割。
24是1024x1024x3个训练图像的总数,而64则是第一个conv层的深度。
注意:我使用的是谷歌colab gpu运行时
我将steps_per_epoch传递给模型.fit,而不是batch_size,在这种情况下也不需要它,
batch_size替换steps_per_epoch以某种方式解决了我的问题。H = model.fit(X_train, Y_train, validation_data=(X_valid, Y_valid), steps_per_epoch=len(X_train)//BATCHSIZE, epochs=EPOCHS, validation_steps=len(X_valid)//BATCHSIZE)
H = model.fit(X_train, Y_train, batch_size=BATCHSIZE, epochs=EPOCHS, validation_data=(X_valid, Y_valid))