训练一个epoch的时间太长



我使用RTX 3060 12GB GPU启用工作站,RAM为16GB DDR4和CPU Intel Core i5 10400F。还挂载了一个外部存储HDD驱动器并运行脚本p2ch11。使用从0到8个工人和各种批大小选择从32到1024!!我仍然需要大约13.5个小时来训练一个epoch(批量大小=1024和4个工人!!)…我仍然没有弄清楚是什么错了…看起来我不能利用GPU出于某种原因…

从存储库中提取的代码:https://github.com/deep-learning-with-pytorch/dlwpt-code→p2ch11.training.py (https://github.com/deep-learning-with-pytorch/dlwpt-code/blob/master/p2ch11/training.py)

图片大小较大,需要先做一些预处理。我想这会有帮助的。

相关内容

  • 没有找到相关文章

最新更新