我有一个用于多标签分类问题的CNN,作为损失函数,我使用tf.nn.sigmoid_cross_entropy_with_logits
。
从交叉熵方程中,我希望输出是每个类的概率,但我在 (-∞, ∞( 中得到浮点数。
经过一番谷歌搜索,我发现由于一些内部归一化操作,每行对数在被输入方程之前都可以解释为概率。
我对如何实际输出后验概率而不是浮点数以绘制 ROC 感到困惑。
tf.sigmoid(logits)
给出了概率。
您可以在tf.nn.sigmoid_cross_entropy_with_logits文档中看到,tf.sigmoid
是将 logits 规范化为概率的函数。