bigtable中每TB数据的推荐节点数



我希望在Bigtable中建立一个30TB且不断增长的单(历史)表。我希望每天单个批处理负载为200GB,并且偶尔在一个键范围内进行批处理查询。对于Bigtable中每个节点的TB数有什么指导?我读过一些Cassandra的帖子,建议每个节点可用1TB,还有一些帖子建议每个HBase节点可用6-12TB。我在Google Bigtable文档中找不到任何明确的指导

工程人员说:这真的取决于工作负载-你应该尝试一个延长的多天的实验,理想情况下,你将有一个大的节点计数和导入所有的数据,然后调整到最小的节点大小,然后执行读/写工作负载,你期望几天,特别是监控cpu的使用情况。

我们正在编写一个关于陈旧/冷用例的说明

最新更新