张量流是否支持非规范化损失



我正在使用tensorflow框架进行语义分割。我的问题是,张量流是否支持具有交叉熵的softmax的非归一化损失,例如:

https://github.com/torrvision/caffe/blob/d779ee369bf86739bc225d99e78aefa040da199f/src/caffe/layers/softmax_loss_layer.cpp#L115

很难跟踪该文件中发生的事情。我相信"非规范化"是指softmax的输出产生[0,1]范围内的值,这些值不需要加和为1,例如多类分类使用的值。

如果我是对的,您只是在寻找在输出层上应用 sigmoid 的tf.nn.sigmoid_cross_entropy_with_logits(...)。每个输出神经元产生 [0,1] 范围内的值,但它们彼此独立。

这是您应该用于多类分类的内容。

最新更新