我想计算用allen-nlp训练的分类器的f1分数。我使用了allen-nlp指南中的工作代码,它计算精度,而不是F1,所以我试图调整代码中的度量。
根据文档,CategoricalAccuracy和FBetaMultiLabelMeasure采用相同的输入。(预测:形状为[batch_size, ..., num_classes]
的torch.Tensor
,形状为[batch_size, ...]
的gold_labels:形状为torch.Tensor
)
但是由于某种原因,对于精确度来说工作得很好的输入,当给定f1-多标签度量时,会导致RuntimeError。
我将问题浓缩为以下代码片段:
>>> from allennlp.training.metrics import CategoricalAccuracy, FBetaMultiLabelMeasure
>>> import torch
>>> labels = torch.LongTensor([0, 0, 2, 1, 0])
>>> logits = torch.FloatTensor([[ 0.0063, -0.0118, 0.1857], [ 0.0013, -0.0217, 0.0356], [-0.0028, -0.0512, 0.0253], [-0.0460, -0.0347, 0.0400], [-0.0418, 0.0254, 0.1001]])
>>> labels.shape
torch.Size([5])
>>> logits.shape
torch.Size([5, 3])
>>> ca = CategoricalAccuracy()
>>> f1 = FBetaMultiLabelMeasure()
>>> ca(logits, labels)
>>> f1(logits, labels)
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
File ".../lib/python3.8/site-packages/allennlp/training/metrics/fbeta_multi_label_measure.py", line 130, in __call__
true_positives = (gold_labels * threshold_predictions).bool() & mask & pred_mask
RuntimeError: The size of tensor a (5) must match the size of tensor b (3) at non-singleton dimension 1
为什么会出现这个错误?我遗漏了什么?
您要使用FBetaMeasure
,而不是FBetaMultiLabelMeasure
。"Multilabel"意味着你可以指定多个正确答案,但是"分类准确性"。只允许一个正确答案。这意味着你必须在标签中指定另一个维度。
我怀疑FBetaMultiLabelMeasure
的文档是误导性的。我来修理一下。