我的代码如下所示,我得到从 0 到 9000 的准确度,这意味着它显然不起作用。
optimizer.zero_grad()
outputs = net(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
running_loss += loss.item()
predicted = outputs.data
predicted = predicted.to('cpu')
predicted_img = predicted.numpy()
labels_data = labels.data
labels_data = labels_data.to('cpu')
labels_data = labels_data.numpy()
labels = labels.to(device)
_, predicted = torch.max(outputs.data, 1)
total = labels.size(0) * labels.size(1) * labels.size(2)
correct = (predicted_img == labels_data).sum().item()
accuracy += ( correct / total)
avg_accuracy = accuracy/(batch)
我做错了什么?
我假设以下行在小批量上积累了准确性。
accuracy += (correct/total)
avg_accuracy = accuracy/batch
提供了整个数据集的平均精度,其中batch
表示代表整个数据集的小批量总数。
如果你得到的精度大于100,那么你应该检查在任何小批量中,你是否得到correct > total
?还要检查total = labels_data.size
是否为您提供与以下行相同的值。
total = labels.size(0) * labels.size(1) * labels.size(2)