前提:我在使用Amazon AWS或Linux分区方面有点新手。
因此,我需要在g4dn.4xlarge实例(带有Nvidia T4 GPU的实例(上训练Tensorflow 2.0深度学习模型。安装过程顺利,机器已正确初始化。正如我在我的机器配置中看到的那样,我有:
- 8GB根文件夹
- 200GB的存储空间(我可以在启动时使用本指南安装https://devopscube.com/mount-ebs-volume-ec2-instance/#:~:text=步骤%201%3A%20Head%20over%20to,text%20box%20as%20showing%20below(
这是lsblk
:的结果
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
loop0 7:0 0 33.3M 1 loop /snap/amazon-ssm-agent/3552
loop1 7:1 0 32.3M 1 loop /snap/snapd/11588
loop2 7:2 0 70.4M 1 loop /snap/lxd/19647
loop3 7:3 0 55.5M 1 loop /snap/core18/1997
loop4 7:4 0 55.4M 1 loop /snap/core18/2066
nvme1n1 259:0 0 209.6G 0 disk /newvolume
nvme0n1 259:1 0 8G 0 disk
└─nvme0n1p1 259:2 0 8G 0 part /
问题:我遵循了本指南https://medium.com/quantrium-tech/installing-tensorflow-2-with-nvidia-gpu-on-google-cloud-instance-a8dde3746f23安装必要的驱动程序,以便能够使用tensorflow的GPU;设备上没有剩余空间";问题是,所有需要的软件包都超过了我可用的空间(8GB(。
我尝试过的:我尝试在我安装的磁盘(/newvolume(上安装驱动程序,但它们还是会转到根目录(可能做得很愚蠢(。我试着用一些粗略的指南将两个磁盘合并,但没有成功或进展。
问题:有没有办法将两个分区合并为拥有200GB+的根目录,这样我就可以安装必要的驱动程序而不会出现空间问题?或者还有其他解决办法吗?
我的目标不是通过配置另一个空间更大的实例来扩展根文件夹,而是利用200GB的磁盘(nvme1n1(。
非常感谢!
- 从AWS EBS控制台将现有EC2根EBS卷大小从8 GB扩展到200 GB。然后您可以分离和删除安装在/newvolume上的EBS卷
或
- 终止此实例并启动新的EC2。启动实例时,将根卷的大小从8 GB增加到200 GB