我一直在GPU后端使用Google Colab。 在 12 月我使用它时,GPU 后端的磁盘大小超过 300 GB。 现在,在虚拟机上运行df -h
显示以下内容:
Filesystem Size Used Avail Use% Mounted on
overlay 69G 33G 33G 50% /
tmpfs 64M 0 64M 0% /dev
tmpfs 6.4G 0 6.4G 0% /sys/fs/cgroup
/dev/sda1 75G 37G 39G 49% /opt/bin
tmpfs 6.4G 12K 6.4G 1% /var/colab
shm 5.9G 4.0K 5.9G 1% /dev/shm
tmpfs 6.4G 0 6.4G 0% /proc/acpi
tmpfs 6.4G 0 6.4G 0% /proc/scsi
tmpfs 6.4G 0 6.4G 0% /sys/firmware
你知道有什么变化吗? 我在网上搜索有关此的新闻,但找不到任何新闻。 以前,覆盖文件系统为 359 GB。
提前感谢您提供任何线索。
最好的,
二.
这似乎是一个新问题。 我在Github上找到了这个:https://github.com/googlecolab/colabtools/issues/919。
具有讽刺意味的是,一个建议的解决方案是安装Google云端硬盘。 因此,我购买了200 GB的Google云端硬盘。 但是,磁盘大小仍然是一个问题。 显然,一旦安装了Google Drive,它就开始在/root/.config/Google/DriveFS/[uniqueid]/content_cache中缓存文件。 缓存无法控制其大小,它不会删除或替换任何内容,它只是累积,并且会占用所有磁盘,从而使代码崩溃。 :(