了解 TensorFlow 中对数和标签的描述



这就是tensorflow对tf.nn.sparse_softmax_cross_entropy_with_logits中的logits和标签参数的看法

参数: _sentinel:用于防止位置参数。内部,请勿使用。

标签:形状[d_0, d_1, ..., d_{r-1}]Tensor(其中r的等级为labels和结果)和 dtypeint32int64.labels中的每个条目 必须是[0, num_classes)中的索引。其他值将引发 当此操作在 CPU 上运行时出现异常,并返回相应的NaNGPU 上的损失和梯度行。

logits:形状的未缩放对数概率[d_0, d_1, ..., d_{r-1}, num_classes]和 dtypefloat32float64。 名称:操作的名称(可选)。

我已经处理了相当多的机器学习和深度学习分类问题,我遇到甚至想到的唯一输出形状是[无,1]或[无,类数](如果未实现稀疏实现。

请阐明在哪里做: 形状[d_0, d_1, ..., d_{r-1}]Tensor(标签)和"张量"(对数) 形状的未缩放对数概率[d_0, d_1, ..., d_{r-1}, num_classes]来自。也许只是一个例子就足够了

我已经处理了相当多的机器学习和深度学习分类问题,我遇到甚至想到的唯一输出形状是[无,1]或[无,类数]

这正是您所描述的。

labels:形状 [d_0, d_1, ..., d_{r-1}] 的张量(其中 are 是标签和结果的秩)和 dtype int32 或 int64。标签中的每个条目必须是 [0, num_classes) 中的索引。

d_0,d_1...d_{R-1} 是批处理的示例。这里这对应于形状为 [r, 1] 的张量,其中 r 是你的batch_size。

logits: 形状的未缩放对数概率 [d_0, d_1, ..., d_{r-1}, num_classes]

同样的事情在这里,这对应于形状为 [r, num_classes] 的张量。

当我们定义模型时,r = None 因为我们不希望图形依赖于批量大小。

最新更新