在Tensorflow中是否有一个等效的torchsummary ?



我使用GPU在一个55GB大小的数据集上运行一些非常大的深度学习模型。如果我使用的批大小大于1,就会出现资源耗尽错误。即使批处理大小为1,我也会遇到分段错误。

GPU内存为10GB,服务器内存为32GB

是否有一种方法,我可以知道有多大的数据(批大小为1)将占用GPU?我用tf。Keras适合模型。在TensorFlow中是否有等价的torchsummary?

在keras(现在是Tensorflow的一部分)中,您可以本机使用model.summary()。更多信息请看这里

相关内容

  • 没有找到相关文章

最新更新