PyTorch - 相当于nn的功能.模块



众所周知,我们可以将任意数量的有状态构建块包装到一个继承自nn.Module的类中。但是,当您想包装一堆无状态函数(来自nn.Functional(以充分利用nn.Module允许您做的事情时,应该如何完成,例如只需model.to(device)即可在 CPU 和 GPU 之间自动移动张量?

我已经找到了解决方案:如果你在一个模块内部有一个创建新的张量的操作,那么你必须使用self.register_buffer才能充分利用设备之间的自动移动。

最新更新