Ceph操作系统已经满了,但我还没有存储那么多数据



我有一个Ceph集群,运行18 X 600GB操作系统。有三个池(大小:3,pg_num:64(,每个池上的映像大小为200GB,有6台服务器通过iSCSI连接到这些映像,并在其中存储大约20个虚拟机。这里是"0"的输出;ceph df":

水池:

POOL                           ID     STORED      OBJECTS     USED        %USED      MAX AVAIL 
cephfs_data                     1         0 B           0         0 B          0           0 B 
cephfs_metadata                 2      17 KiB          22     1.5 MiB     100.00           0 B 
defaults.rgw.buckets.data       3         0 B           0         0 B          0           0 B 
defaults.rgw.buckets.index      4         0 B           0         0 B          0           0 B 
.rgw.root                       5     2.0 KiB           5     960 KiB     100.00           0 B 
default.rgw.control             6         0 B           8         0 B          0           0 B 
default.rgw.meta                7       393 B           2     384 KiB     100.00           0 B 
default.rgw.log                 8         0 B         207         0 B          0           0 B 
rbd                             9     150 GiB      38.46k     450 GiB     100.00           0 B 
rbd3                           13     270 GiB      69.24k     811 GiB     100.00           0 B 
rbd2                           14     150 GiB      38.52k     451 GiB     100.00           0 B 

基于此,我预计大约1.7 TB的原始容量使用量,但目前大约为9TB!

原始存储:

CLASS     SIZE        AVAIL       USED        RAW USED     %RAW USED 
hdd       9.8 TiB     870 GiB     9.0 TiB      9.0 TiB         91.35 
TOTAL     9.8 TiB     870 GiB     9.0 TiB      9.0 TiB         91.35 

集群已经关闭,因为剩下的容量非常少。我想知道是什么造成的,我该如何修复它。非常感谢您的帮助

问题是在没有放弃选项的情况下装载iSCSI目标。

由于我使用的是RedHat虚拟化,我只是修改了在Ceph之上创建的所有存储域,并启用了";丢弃";关于他们1。仅仅几个小时后,就释放了大约1 TB的存储空间。现在大约12个小时过去了,释放了5 TB的存储空间。感谢

相关内容

  • 没有找到相关文章

最新更新