我使用GPU在一个55GB大小的数据集上运行一些非常大的深度学习模型。如果我使用的批大小大于1,就会出现资源耗尽错误。即使批处理大小为1,我也会遇到分段错误。
GPU内存为10GB,服务器内存为32GB
是否有一种方法,我可以知道有多大的数据(批大小为1)将占用GPU?我用tf。Keras适合模型。在TensorFlow中是否有等价的torchsummary
?
在keras(现在是Tensorflow的一部分)中,您可以本机使用model.summary()
。更多信息请看这里