我创建了一个自定义损失函数,名为
def customLoss(true, pred)
//do_stuff
//print(variables)
return loss
现在我调用编译为model.compile(optimizer='Adamax', loss = customLoss)
编辑:我尝试了tf。打印,这是我的结果。
def customLoss(params):
def lossFunc(true, pred):
true = tf.Print(true, [true.shape],'loss-func') #obviously this won't work because the tensors aren't the same shape; however, this is what I want to do.
#stuff
return loss
return lossFunc
model = Model(inputs=[inputs], outputs=[outputs])
parallel_model = multi_gpu_model(model, gpus=8)
parallel_model.compile(opimizer='Adam', loss = customLoss(params), metrics = [mean_iou)
history = parallel_model.fit(X_train, Y_train, validation_split=0.25, batch_size = 32, verbose=1)
输出为
Epoch 1/10
1159/1159 [==============================] - 75s 65ms/step - loss: 0.1051 - mean_iou: 0.4942 - val_loss: 0.0924 - val_mean_iou: 0.6933
Epoch 2/10
1152/1159 [============================>.] - ETA: 0s - loss: 0.0408 - mean_iou: 0.7608
打印语句仍未打印。我错过了什么 - 我对tf.Print
的投入是不合适的吗?
这不是因为 Keras 转储缓冲区或使用魔法,它根本不调用它们!调用损失函数一次来构造计算图,然后返回表示损失值的符号张量。Tensorflow使用它来计算损失,梯度等。
相反,您可能会对 tf 感兴趣。打印为空操作,具有打印传递的参数的副作用。由于tf.Print
是计算图的一部分,因此它也将在训练时运行。从文档中:
打印张量列表。 这是一个标识操作(行为类似于 tf.identity(,具有在评估时打印数据的副作用。