为什么训练误差大于测试误差



我在mode.train(((Pytorch的nn.Models(中训练了一个模型我已经保存了BCELoss(在mode.train((中(以及ds测试和ds训练(但在mode.eval(((上的精度。因此,结果是:

(例如在epoch 153中(错误分类(列车、测试(:0.5819954128440368、0.37209302325581395

损失为:0.0032386823306408906

这怎么可能?我切换这两种模式错了吗?这是问题所在吗?

测试误差并不总是大于训练误差,但考虑到您训练了153个时期的模型,您的损失函数或模型结构似乎存在一些问题。

你为什么不设计一个新的层结构,参考大量出版物?根据我的经验,当您的模型不是数据集的优化模型时,通常会出现问题。它不是通过简单地提高模型的深度来解决的。

最新更新