我正在使用 grok 的 logstash 过滤器并将日志文件导入 elasticsearch。我想将我的日志文件分成 4 个部分,分别是时间、日志级别、类(已编辑:对不起,我的错,它是线程,而不是类(和消息。
下面是我的日志文件的几行,由 spring-boot 使用 lob-back 生成.xml
2019-09-17 16:25:01,116 INFO [main]: org.springframework.scheduling.concurrent.ThreadPoolTaskScheduler:initialize:Initializing ExecutorService 'taskScheduler'
2019-09-17 16:25:01,225 INFO [main]: org.springframework.scheduling.concurrent.ThreadPoolTaskExecutor:initialize:Initializing ExecutorService 'applicationTaskExecutor'
我得到的错误如下:
[2019-09-17T16:25:01,425][ERROR][logstash.codecs.json] JSON parse error, original data now in message field {:error=>#<LogStash::Json::ParserError:
Unexpected character ('-' (code 45)): Expected space separating root-level values
"; line: 1, column: 6]>, :data=>"2019-09-17 16:25:01,043 INFO [main]: org.springframework.security.web.DefaultSecurityFilterChain:<init>:Creating filter chain: Ant [pattern='/v2/api-docs'], []r"}
我的日志存储配置:
input {
file {
path => "C:/data/log/*.log"
codec => "json"
type => "logback"
}
}
filter {
grok {
match => {
"message" => "%{TIMESTAMP_ISO8601:timestamp} %{LOGLEVEL:log-level} [%{DATA:class}]: %{GREEDYDATA:syslog_message}"
}
}
}
output {
if [type]=="logback" {
elasticsearch {
hosts => [ "localhost:9200" ]
index => "logback-%{+YYYY.MM.dd}"
}
}
}
您必须转义 [] 字符才能将它们视为字符串的一部分,而不是特殊字符
match => {
"message" => '^%{TIMESTAMP_ISO8601:timestamp} %{LOGLEVEL:log_level}%{SPACE}[%{DATA:thread}]: %{GREEDYDATA:syslog_message}$'
}
我通过一些改进更新了您的模式:
设置行锚点的 start(^( 和结束 ($(以提高正则表达式性能, 因为失败会更快。更多关于它的信息在这里。
您的日志在">日志级别"和"类"之间有 2 个空格(实际上,它是线程,而不是类(。如果它不是永久的空格量(有时 Spring 会填充一定长度的对数变量(,最好使用%{SPACE} 掩码。
遵循"日志级"变量的名称约定:
- 使用蛇形大小写(下划线(组合单词。