深度学习,损失不会减少



我尝试使用一个有20个类的训练集来微调一个预训练的模型。重要的是,尽管我有20个课程,但其中一个课程占训练图像的1/3。这是我的损失没有减少,测试准确率几乎达到30%的原因吗?

感谢您的任何建议

我也遇到过类似的问题。我通过增加神经网络权重初始值的方差来解决这个问题。这是神经网络的预处理,以防止重量在背部支撑过程中逐渐减少。

我在Jenny Orr教授的课程中看到了神经网络讲座,发现它内容丰富。(刚刚意识到Jenny早年与Yann LeCun和Leon bottou合著了许多关于神经网络训练的论文)。

希望它能有所帮助!

是的,您的网络很可能过度适应了不平衡的标签。一种解决方案是,您可以对其他标签执行数据扩充,以平衡它们。例如,如果你有图像数据:你可以进行随机裁剪,进行水平/垂直翻转,各种技术。

编辑:

检查是否过度拟合不平衡标签的一种方法是计算网络预测标签的直方图。如果它高度偏向于不平衡类,你应该尝试上面的数据增强方法,并重新训练你的网络,看看这是否有帮助。

相关内容

  • 没有找到相关文章

最新更新