AWS g4dn.4xlarge实例中的驱动程序空间不足



前提:我在使用Amazon AWS或Linux分区方面有点新手。

因此,我需要在g4dn.4xlarge实例(带有Nvidia T4 GPU的实例(上训练Tensorflow 2.0深度学习模型。安装过程顺利,机器已正确初始化。正如我在我的机器配置中看到的那样,我有:

  • 8GB根文件夹
  • 200GB的存储空间(我可以在启动时使用本指南安装https://devopscube.com/mount-ebs-volume-ec2-instance/#:~:text=步骤%201%3A%20Head%20over%20to,text%20box%20as%20showing%20below(

这是lsblk:的结果

NAME        MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
loop0         7:0    0  33.3M  1 loop /snap/amazon-ssm-agent/3552
loop1         7:1    0  32.3M  1 loop /snap/snapd/11588
loop2         7:2    0  70.4M  1 loop /snap/lxd/19647
loop3         7:3    0  55.5M  1 loop /snap/core18/1997
loop4         7:4    0  55.4M  1 loop /snap/core18/2066
nvme1n1     259:0    0 209.6G  0 disk /newvolume
nvme0n1     259:1    0     8G  0 disk
└─nvme0n1p1 259:2    0     8G  0 part /

问题:我遵循了本指南https://medium.com/quantrium-tech/installing-tensorflow-2-with-nvidia-gpu-on-google-cloud-instance-a8dde3746f23安装必要的驱动程序,以便能够使用tensorflow的GPU;设备上没有剩余空间";问题是,所有需要的软件包都超过了我可用的空间(8GB(。

我尝试过的:我尝试在我安装的磁盘(/newvolume(上安装驱动程序,但它们还是会转到根目录(可能做得很愚蠢(。我试着用一些粗略的指南将两个磁盘合并,但没有成功或进展。

问题:有没有办法将两个分区合并为拥有200GB+的根目录,这样我就可以安装必要的驱动程序而不会出现空间问题?或者还有其他解决办法吗?

我的目标不是通过配置另一个空间更大的实例来扩展根文件夹,而是利用200GB的磁盘(nvme1n1(。

非常感谢!

  1. 从AWS EBS控制台将现有EC2根EBS卷大小从8 GB扩展到200 GB。然后您可以分离和删除安装在/newvolume上的EBS卷

  1. 终止此实例并启动新的EC2。启动实例时,将根卷的大小从8 GB增加到200 GB

相关内容

  • 没有找到相关文章

最新更新