Cassandra-一列中包含大量数据的大量读取和适度更新-性能问题



我有初始数据,当加载到Cassandra中时,显示的总大小为3.5GB

在那之后,我进行每秒10k次的重读取和每秒1k次的中等更新,但在更新中,其中一列的大小被更新为更大的大小,使得行的总大小从1k增加到几乎5k

存储的问题是,节点的大小不断增加,甚至达到300GB,并且只向增长

压缩正在运行,读取性能不断降级。卡桑德拉在将行从2k更新到5k时遇到问题了吗?

这是一台AWS 30GB RAM机器,配有16个处理器和1TB SSD,激活了32k IOPS。压实吞吐量设置为256,压实机设置为8,读数的偏差仍在继续,SS表的大小增加

在一天的时间内,每秒读取次数从每秒22k下降到每秒5k

请让我知道配置中有什么错误

基本上观察挂起的压缩,如果它们增加,首先使用nodetool开始增加压缩吞吐量。

如果您看到挂起的压缩已经开始减少,那么将其作为缓冲区从该配置中增加一点。

此外,如果你使用CPU在操作过程中没有过载+压缩,你也可以少量增加并发压缩程序

最新更新