如何通过弹性搜索将性能测试日志推送到 Kibana



是否可以将从性能中心获取的分析报告推送到 Logstash 并在 Kibana 中可视化它们?我只是想自动执行检查每个 vuser 日志文件的任务,然后将错误推送到 ELK 堆栈。如何通过脚本检索文件并自动执行此操作。我无法对此有任何指导,因为我需要自动执行从每个vuser_log文件中自动读取的任务。

Filebeat应该是你完成你提到的工作的工具。

要自动读取您在文件(可能是日志文件(中写入的条目,您只需要一个可以 Filebeat 的托运工具(它与 ELK 堆栈很好地集成。Logstash 也可以做同样的事情,但这很重并且需要 JVM

(要在 ELK 堆栈中执行此操作,您需要执行以下操作:

  1. Filebeat应该在主应用程序正在运行并生成日志的"所有"实例上设置。 Filebeat是一个简单的轻量级托运工具,可以读取您的日志条目,然后将其发送到Logstash。
  2. 设置一个Logstash实例(即 ELK 的 L(,它将从 Filebeat 接收事件。Logstash 会将数据发送到弹性搜索
  3. 设置一个弹性搜索实例(即 ELK 的 E(,其中将存储您的数据
  4. 设置Kibana的一个实例(即 ELK 的 K(。Kibana 是用于通过 Rest 调用查看 Elastic 搜索并与之交互的前端工具

有关上述设置,请参阅以下链接:

https://logz.io/blog/elastic-stack-windows/

最新更新