我有一个Ceph集群,运行18 X 600GB操作系统。有三个池(大小:3,pg_num:64(,每个池上的映像大小为200GB,有6台服务器通过iSCSI连接到这些映像,并在其中存储大约20个虚拟机。这里是"0"的输出;ceph df":
水池:
POOL ID STORED OBJECTS USED %USED MAX AVAIL
cephfs_data 1 0 B 0 0 B 0 0 B
cephfs_metadata 2 17 KiB 22 1.5 MiB 100.00 0 B
defaults.rgw.buckets.data 3 0 B 0 0 B 0 0 B
defaults.rgw.buckets.index 4 0 B 0 0 B 0 0 B
.rgw.root 5 2.0 KiB 5 960 KiB 100.00 0 B
default.rgw.control 6 0 B 8 0 B 0 0 B
default.rgw.meta 7 393 B 2 384 KiB 100.00 0 B
default.rgw.log 8 0 B 207 0 B 0 0 B
rbd 9 150 GiB 38.46k 450 GiB 100.00 0 B
rbd3 13 270 GiB 69.24k 811 GiB 100.00 0 B
rbd2 14 150 GiB 38.52k 451 GiB 100.00 0 B
基于此,我预计大约1.7 TB的原始容量使用量,但目前大约为9TB!
原始存储:
CLASS SIZE AVAIL USED RAW USED %RAW USED
hdd 9.8 TiB 870 GiB 9.0 TiB 9.0 TiB 91.35
TOTAL 9.8 TiB 870 GiB 9.0 TiB 9.0 TiB 91.35
集群已经关闭,因为剩下的容量非常少。我想知道是什么造成的,我该如何修复它。非常感谢您的帮助
问题是在没有放弃选项的情况下装载iSCSI目标。
由于我使用的是RedHat虚拟化,我只是修改了在Ceph之上创建的所有存储域,并启用了";丢弃";关于他们1。仅仅几个小时后,就释放了大约1 TB的存储空间。现在大约12个小时过去了,释放了5 TB的存储空间。感谢