我是深度学习的新手。我正在做一个学校项目,试图在VisDrone数据集上训练YOLOv5模型。我的训练集有4911张图片,验证集有3000多张图片,但不到4000张。我正在使用谷歌Colab专业版。据我所知,它有32gb的内存容量和GPU VRAM=15-16GB。如果我让模型自动加载数据;库达失忆";。我能采取什么策略来解决这个问题?我应该自定义数据加载器吗?它是dataloaders.py文件。我该怎么做?
通常由于批量大小而导致内存不足,如果让培训师自己决定批量大小会更好。要执行此操作,请从以下位置替换train.py
中的行号442:
parser.add_argument('--batch-size', type=int, default=16, help='total batch size for all GPUs, -1 for autobatch')
到此:
parser.add_argument('--batch-size', type=int, default=-1, help='total batch size for all GPUs, -1 for autobatch')
这应该可以解决内存不足的问题。