我在版本为6.5.12的上运行一个2节点集群
我遵循了以下滚动升级指南:https://www.elastic.co/guide/en/elasticsearch/reference/5.6/rolling-upgrades.html
在将最后一个升级的节点重新连接回集群后,由于未分配碎片,运行状况保持为黄色。
重新启用碎片分配似乎没有效果:
PUT _cluster/settings
{
"transient": {
"cluster.routing.allocation.enable": "all"
}
}
我在检查集群运行状况时的查询结果:
GET _cat/health:
1541522454 16:40:54 elastic-upgrade-test yellow 2 2 84 84 0 0 84 0 - 50.0%
GET _cat/shards:
v2_session-prod-2018.11.05 3 p STARTED 6000 1016kb xx.xxx.xx.xxx node-25
v2_session-prod-2018.11.05 3 r UNASSIGNED
v2_session-prod-2018.11.05 1 p STARTED 6000 963.3kb xx.xxx.xx.xxx node-25
v2_session-prod-2018.11.05 1 r UNASSIGNED
v2_session-prod-2018.11.05 4 p STARTED 6000 1020.4kb xx.xxx.xx.xxx node-25
v2_session-prod-2018.11.05 4 r UNASSIGNED
v2_session-prod-2018.11.05 2 p STARTED 6000 951.4kb xx.xxx.xx.xxx node-25
v2_session-prod-2018.11.05 2 r UNASSIGNED
v2_session-prod-2018.11.05 0 p STARTED 6000 972.2kb xx.xxx.xx.xxx node-25
v2_session-prod-2018.11.05 0 r UNASSIGNED
v2_status-prod-2018.11.05 3 p STARTED 6000 910.2kb xx.xxx.xx.xxx node-25
v2_status-prod-2018.11.05 3 r UNASSIGNED
有没有其他方法可以尝试让碎片分配重新工作,这样我就可以让我的集群健康恢复到绿色?
我的集群中的另一个节点有一条"超过高磁盘水印[90%]"的警告消息,因此碎片被"从该节点移开"。
我将配置更新为:
cluster.routing.allocation.disk.watermark.high: 95%
重新启动节点后,碎片开始重新分配。
这是一个快速修复-我还将尝试增加这个节点上的磁盘空间,以确保我不会失去可靠性。