我使用我的GPU -NVIDIA 1060 3GB使用了Yolo检测,并且一切都很好。
现在,我正在尝试使用PARAM -GPU 1.0生成自己的模型。TensorFlow可以看到我的GPU,因为我可以在开始时阅读:"名称:GeForce GTX 1060专业:6小型:1 MemoryClockrate(GHz):1.6705" TotalMemory:3.00Gib freemory:2.43gib"
无论如何,以后,当程序加载数据时,正在尝试开始学习时,我有以下错误:"无法分配设备的832.51m(872952320字节):cuda_error_out_of_memory"
我已经检查了它是否尝试使用我的其他GPU(Intel 630),但不是。
当我在没有" - gpu"模式选项的情况下运行火车过程时,它可以正常工作,但慢慢。(我也尝试了-gpu 0.8,0.4 ect。)
任何想法如何修复?
解决了问题。更改配置文件中的批处理大小和图像大小似乎没有帮助,因为它们没有正确加载。我必须转到defaults.py文件,然后将其更改为降低,以使我的GPU计算步骤。
看起来您的自定义模型用于大量内存,而图形卡无法支持它。您只需要使用-batch选项来控制内存的大小。