使用一个GPU和共享内存训练火炬模型



我是训练pytorch模型的新手和GPU我试过在windows上训练它,但一直使用专用内存(10GB(,不使用共享内存我曾尝试使用多处理来增强它的性能,但我一直收到错误:TypeError:无法pickle"module"对象

解决方案通常是在加载数据时使用num_wbrokers=0我实际上在加载数据后使用多处理并且只需要使用共享内存

我正在重新培训meta sr扬声器验证码,特别是培训文件:https://github.com/seongmin-kye/meta-SR/blob/b4c1ea1728e33f7bbf7015c38f508f24594f3f88/train.py

我编辑了第92行以使用共享GPU内存,如下所示而不是:train(train_generator, model, objective, optimizer, n_episode, log_dir, scheduler)收件人:

model.share_memory()
p = mp.Process(target=train, args=(train_generator,model,objective, optimizer, n_episode, log_dir, scheduler))
p.num_workers=0
p.start()
p.join()

如果需要添加更多信息,请告诉我提前感谢

只有当PC中有两个GPU时,才能使用共享内存(RAM的一部分(在这种情况下,只有一个GPU

最新更新