Elasticsearch Index 紅色,未分配分片



我正在使用 ELK 堆栈,并且遇到了一个名为metricbeat-7.4.0-000001的 metricbeat 索引没有分配分片的问题。

关于我的 ELK 堆栈的信息:

  • 弹性,日志任务,木版版本:7.4.0(一旦一切顺利运行,我确实打算更新(
  • Ubuntu 18.04 LTS 上的单节点(我也打算尽快升级 - 我在 20.04 之前就开始了这个项目(
  • 2 x 至强 E5-2620(6 核,12 线程 @ 2GHz(,配备 64GB 内存
  • 系统负载平均为 0.03,RAM 消耗略低于 7GB,因此我很难认为服务器的性能不足以做到这一点。
  • 1TB 磁盘空间,147 GB 正在使用中,所以我也看不到它是磁盘消耗

我已经为此苦苦挣扎了几个星期,遵循了无数的教程和支持页面,但都无济于事。据我所知,如果没有磁盘空间,或者服务器没有可用的内存/处理资源,这是一个常见问题。

除了从头开始重新创建我的集群之外,我觉得我已经尝试了一切。删除索引、重新导入所有 metricbeat 配置(索引模板、生命周期策略(、重新路由(使用和无重试失败(的次数超过了我的数例。ILM 策略似乎确实链接在一起,但没有分配分片。

重新创建索引模板时,我会停止 logstash(以防止任何不需要的索引创建(,导出 json,然后在 Kibana 开发工具中重新导入它。然后,我修改索引模板只是为了更改索引模式以匹配我的索引,从默认metricbeat-*更改为metricbeat-7.4.0-*。我的索引是使用模式 beatname-version-autoincrement 创建的,例如metricbeat-7.4.0-000001

这不是唯一让我悲伤的指数。我在 winlogbeat 索引和心跳索引方面遇到了同样的问题,但我怀疑以某种方式,我已经设法解决了这个特定问题。

当我对该指数的分配进行解释时,它会告诉我以下内容:

{
"index" : "metricbeat-7.4.0-000001",
"shard" : 0,
"primary" : true,
"current_state" : "unassigned",
"unassigned_info" : {
"reason" : "INDEX_CREATED",
"at" : "2020-06-03T04:23:31.865Z",
"last_allocation_status" : "no"
},
"can_allocate" : "no",
"allocate_explanation" : "cannot allocate because allocation is not permitted to any of the nodes",
"node_allocation_decisions" : [
{
"node_id" : "OQ3AFLyhRcao1z2es2p79w",
"node_name" : "server.network.local",
"transport_address" : "ipaddress:9300",
"node_attributes" : {
"rack_id" : "main",
"ml.machine_memory" : "67501658112",
"xpack.installed" : "true",
"ml.max_open_jobs" : "20"
},
"node_decision" : "no",
"weight_ranking" : 1,
"deciders" : [
{
"decider" : "awareness",
"decision" : "NO",
"explanation" : "node does not contain the awareness attribute [main]; required attributes cluster setting [cluster.routing.allocation.awareness.attributes=main]"
}
]
}
]
}

但是,我已经在我的 elasticsearch.ymlnode.attr.rack_id: main中分配了,这没有区别。但是,由于这是一个单个节点,由于缺乏选择,我不明白为什么它很难确定将其分配给何处。

我的下一个怀疑是,也许它只是需要一点时间来弄清楚自己。我在某处读到Elasticsearch每15分钟运行一次生命周期策略,并想知道分配分片是否可能涉及这一点?然而,考虑到世界上所有的耐心(或者至少几个小时的价值(,我没有发现任何变化——我什至重新启动并等到第二天,仍然无济于事。

最近,我重新创建了索引(多次(。当前的这个只有几个小时的历史,并且有一个新的索引,仍然存在同样的问题。

当我对我的碎片进行分类时,我得到的东西包含以下内容。我可以看到我对心跳的期望,但 metricbeat 主索引没有显示分片。

heartbeat-7.4.0-000001          0 p STARTED         0    283b ipaddress server.network.locak
heartbeat-7.4.0-000001          0 r UNASSIGNED                            
metricbeat-7.4.0-000001         0 p UNASSIGNED                            
metricbeat-7.4.0-000001         0 r UNASSIGNED                            

下面的评论删除了我的 elasticsearch.yml 版本:

node.name: auditsvr.ctperth.local
node.attr.rack_id: main
path.data: /var/lib/elasticsearch
path.logs: /var/log/elasticsearch
network.host: ipaddress
discovery.seed_hosts: ["ipaddress"]
discovery.type: single-node
xpack.monitoring.collection.enabled: true
xpack.security.enabled: true
xpack.security.transport.ssl.enabled: true
xpack.security.transport.ssl.key: cert.key
xpack.security.transport.ssl.certificate: cert.crt
xpack.security.transport.ssl.certificate_authorities: ca-cert.crt
xpack.security.transport.ssl.verification_mode: none

度量节拍也是如此:

metricbeat.config.modules:
path: ${path.config}/modules.d/*.yml
reload.enabled: false
setup.template.settings:
index.number_of_shards: 1
index.codec: best_compression
setup.kibana:
host: "http://server.network.local:80"
output.logstash:
hosts: ["ipaddress:5044"]
processors:
- add_host_metadata: ~
- add_cloud_metadata: ~
logging.level: info
logging.to_files: true
logging.files:
path: /var/log/metricbeat
name: metricbeat
keepfiles: 7
permissions: 0644
setup.ilm.enabled: auto
setup.ilm.rollover_alias: "metricbeat"
setup.ilm.pattern: "{now/d}-000001"

我的下一步是重新开始,但我只能想象这是一个配置问题,这意味着我需要重新开始。我觉得这需要比我更熟悉 Elastic 的人,我通常可以弄清楚这些事情,但需要一点指导。

提前欣赏

更新

根据 Val 的要求,请在此处找到 metricbeat 索引模板:

https://sandbox.michael-thompson.net/StackOverflow/62169773/metricbeat-7.4.0%20Index%20Template.json

以及此处的群集设置:

https://sandbox.michael-thompson.net/StackOverflow/62169773/clustersettingsincludedefaultstrue.json

不幸的是,它们对于糊状物来说太大了。

谢谢

有问题的集群设置如下,知道它是如何到达那里的吗?

"persistent" : {
"cluster" : {
"routing" : {
"allocation" : {
"awareness" : {
"attributes" : "main"
}
}
}
},

所以有两种方法可以解决这种情况。在这两种情况下,您都可以从elasticsearch.yml中删除以下设置,因为它无用:

node.attr.rack_id: main

选项 A:

需要删除以下群集设置,因为它对单节点设置没有意义。只需运行:

PUT /_cluster/settings
{
"persistent" : {
"cluster.routing.allocation.awareness.attributes" : null
}
}

选项 B:

保留群集设置,并将以下节点属性添加到elasticsearch.yml,以便群集设置(按原样(有意义:

node.attr.main: whatever

此外,如果您阅读有关集群分配感知的更多信息,这将有所帮助,因为对于单节点设置,设置它并没有真正的意义。

最新更新