如何计算 pytorch 中的像素精度?



我的代码如下所示,我得到从 0 到 9000 的准确度,这意味着它显然不起作用。

optimizer.zero_grad()
outputs = net(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
running_loss += loss.item()

predicted = outputs.data
predicted = predicted.to('cpu')
predicted_img = predicted.numpy()
labels_data = labels.data
labels_data = labels_data.to('cpu')
labels_data = labels_data.numpy()
labels = labels.to(device)
_, predicted = torch.max(outputs.data, 1)
total = labels.size(0) * labels.size(1) * labels.size(2)
correct = (predicted_img == labels_data).sum().item()
accuracy += ( correct / total)
avg_accuracy = accuracy/(batch)

我做错了什么?

我假设以下行在小批量上积累了准确性。

accuracy += (correct/total)

avg_accuracy = accuracy/batch提供了整个数据集的平均精度,其中batch表示代表整个数据集的小批量总数。

如果你得到的精度大于100,那么你应该检查在任何小批量中,你是否得到correct > total?还要检查total = labels_data.size是否为您提供与以下行相同的值。

total = labels.size(0) * labels.size(1) * labels.size(2)

最新更新