尽管 Cassandra 允许 -2^63 到 +2^63-1 的分区数,但是否有建议的最大分区数,超过该分区数可能会受到影响?
在每个节点大约 10 亿个分区后,完全修复(非增量)开始出现非常严重的过度流式处理问题。特别是对于较小的分区,因为验证压缩运行速度较慢。
理想情况下,我会按分区大小而不是计数推荐它。大约 100mb 的分区,您将拥有更高效的压缩,而不会在读取时产生太多昂贵的分区索引开销。我不会对它太严格,因为它在很多因素上都挥舞着。尝试先专注于查询的建模,然后微调它,如果所述模型最终具有太大或太多太小的分区(数亿或更多低于 1k 或任何多 GB ~ish - 每个节点不是总数)