这就是tensorflow对tf.nn.sparse_softmax_cross_entropy_with_logits
中的logits和标签参数的看法
参数: _sentinel:用于防止位置参数。内部,请勿使用。
标签:形状
[d_0, d_1, ..., d_{r-1}]
的Tensor
(其中r
的等级为labels
和结果)和 dtypeint32
或int64
.labels
中的每个条目 必须是[0, num_classes)
中的索引。其他值将引发 当此操作在 CPU 上运行时出现异常,并返回相应的NaN
GPU 上的损失和梯度行。logits:形状的未缩放对数概率
[d_0, d_1, ..., d_{r-1}, num_classes]
和 dtypefloat32
或float64
。 名称:操作的名称(可选)。
我已经处理了相当多的机器学习和深度学习分类问题,我遇到甚至想到的唯一输出形状是[无,1]或[无,类数](如果未实现稀疏实现。
请阐明在哪里做: 形状[d_0, d_1, ..., d_{r-1}]
的Tensor
(标签)和"张量"(对数) 形状的未缩放对数概率[d_0, d_1, ..., d_{r-1}, num_classes]
来自。也许只是一个例子就足够了
我已经处理了相当多的机器学习和深度学习分类问题,我遇到甚至想到的唯一输出形状是[无,1]或[无,类数]
这正是您所描述的。
labels:形状 [d_0, d_1, ..., d_{r-1}] 的张量(其中 are 是标签和结果的秩)和 dtype int32 或 int64。标签中的每个条目必须是 [0, num_classes) 中的索引。
d_0,d_1...d_{R-1} 是批处理的示例。这里这对应于形状为 [r, 1] 的张量,其中 r 是你的batch_size。
logits: 形状的未缩放对数概率 [d_0, d_1, ..., d_{r-1}, num_classes]
同样的事情在这里,这对应于形状为 [r, num_classes] 的张量。
当我们定义模型时,r = None 因为我们不希望图形依赖于批量大小。