为什么在VRAM中创建模型占用如此多的空间?



我想知道在创建新模型时VRAM中加载了什么。即使在简单的情况下:

import tensorflow as tf
model = tf.keras.Sequential([tf.keras.layers.Dense(1, input_shape=(1,))])

当我运行模型定义命令时,内存使用从0增加到4000+ MiB。我唯一想到的是各种CUDA库加载在内存中,但我不确定。任何想法吗?

提前感谢!

Tensorflow有一个习惯,它占用尽可能多的空间,以备以后需要。您可以尝试以下操作来允许动态内存增长,这应该可以解决您的问题。

physical_devices = tf.config.experimental.list_physical_devices('GPU')
for i in physical_devices:
tf.config.experimental.set_memory_growth(i, True)

相关内容

  • 没有找到相关文章

最新更新