多行配置示例
本节中的示例包括以下内容:
- 将Java堆栈跟踪日志组合成一个事件
- 将C风格的日志组合成一个事件
- 结合时间戳处理多行事件
Java堆栈跟踪
Java示例一:
Java堆栈跟踪由多行组成,每一行在初始行之后以空格开头,如本例中所述:
Exception in thread "main" java.lang.NullPointerException
at com.example.myproject.Book.getTitle(Book.java:16)
at com.example.myproject.Author.getBookTitles(Author.java:25)
at com.example.myproject.Bootstrap.main(Bootstrap.java:14)
要将这些行整合到Filebeat中的单个事件中,请使用以下多行配置:
multiline.pattern: '^[[:space:]]'
multiline.negate: false
multiline.match: after
此配置将以空格开头的所有行合并到上一行。
Java示例二:
下面是一个Java堆栈跟踪日志,稍微复杂的例子:
Exception in thread "main" java.lang.IllegalStateException: A book has a null property
at com.example.myproject.Author.getBookIds(Author.java:38)
at com.example.myproject.Bootstrap.main(Bootstrap.java:14)
Caused by: java.lang.NullPointerException
at com.example.myproject.Book.getId(Book.java:22)
at com.example.myproject.Author.getBookIds(Author.java:35)
... 1 more
要将这些行整合到Filebeat中的单个事件中,请使用以下多行配置:
multiline.pattern: '^[[:space:]]+(at|\.{3})\b|^Caused by:'
multiline.negate: false
multiline.match: after
此配置解释如下:
- 将以空格开头的所有行合并到上一行
- 并把以Caused by开头的也追加到上一行
C风格的日志
一些编程语言在一行末尾使用反斜杠(\)字符,表示该行仍在继续,如本例中所示:
printf ("%10.10ld \t %10.10ld \t %s\
%f", w, x, y, z );
要将这些行整合到Filebeat中的单个事件中,请使用以下多行配置:
multiline.pattern: '\\$'
multiline.negate: false
multiline.match: before
此配置将以\字符结尾的任何行与后面的行合并。
时间戳
来自Elasticsearch等服务的活动日志通常以时间戳开始,然后是关于特定活动的信息,如下例所示:
[2015-08-24 11:49:14,389][INFO ][env ] [Letha] using [1] data paths, mounts [[/
(/dev/disk1)]], net usable_space [34.5gb], net total_space [118.9gb], types [hfs]
要将这些行整合到Filebeat中的单个事件中,请使用以下多行配置:
multiline.pattern: '^\[[0-9]{4}-[0-9]{2}-[0-9]{2}'
multiline.negate: true
multiline.match: after
此配置使用negate: true
和match: after
设置来指定任何不符合指定模式的行都属于上一行。
应用程序事件
有时您的应用程序日志包含以自定义标记开始和结束的事件,如以下示例:
[2015-08-24 11:49:14,389] Start new event
[2015-08-24 11:49:14,395] Content of processing something
[2015-08-24 11:49:14,399] End event
要在Filebeat中将其整合为单个事件,请使用以下多行配置:
multiline.pattern: 'Start new event'
multiline.negate: true
multiline.match: after
multiline.flush_pattern: 'End event'
此配置把指定字符串开头,指定字符串结尾的多行合并为一个事件。
日志如下,预计可得5条数据
test-a.log 开始测试,这也是个事件
Exception in thread "main" java.lang.NullPointerException 空指针test1start
at com.example.myproject.Book.getTitle(Book.java:16)
at com.example.myproject.Author.getBookTitles(Author.java:25)
at com.example.myproject.Bootstrap.main(Bootstrap.java:14)
空指针test1end
Exception in thread "main" java.lang.NullPointerException 空指针test2start
at com.example.myproject.Book.getTitle(Book.java:16)
at com.example.myproject.Author.getBookTitles(Author.java:25)
at com.example.myproject.Bootstrap.main(Bootstrap.java:14)
空指针test2end
Exception in thread "main" java.lang.NullPointerException 空指针test3start
at com.example.myproject.Book.getTitle(Book.java:16)
at com.example.myproject.Author.getBookTitles(Author.java:25)
at com.example.myproject.Bootstrap.main(Bootstrap.java:14)
空指针test3end
test-a.log 结束测试,这也是个事件
Kibana查看结果
获取了5条数据,空格的追加到上一个事件,实践成功。
实践Java示例二:这个有点坎坷,合并的一塌糊涂,大家做测试的时候最好用真实日志做正则验证,此处不赘述了。
实践时间戳:
日志如下,预计可得3条数据
时间戳开始,这个不会被抓取
[2015-08-24 11:49:14,389][INFO ][env ] [Letha] using [1] data paths, mounts [[/ 时间戳A-1
(/dev/disk1)]], net usable_space [34.5gb], net total_space [118.9gb], types [hfs] 时间戳A-2
[2016-08-24 11:49:14,389][INFO ][env ] [Letha] using [1] data paths, mounts [[/ 时间戳B-1
(/dev/disk1)]], net usable_space [34.5gb], net total_space [118.9gb], types [hfs] 时间戳B-2
[2017-08-24 11:49:14,389][INFO ][env ] [Letha] using [1] data paths, mounts [[/ 时间戳C-1
(/dev/disk1)]], net usable_space [34.5gb], net total_space [118.9gb], types [hfs] 时间戳C-2
时间戳结束,这个不会被抓取
Kibana查看结果
虽然也得到了3条数据,但合并的有些尴尬,看来需要抽空在补一篇正则规则了。
综上,合并没什么问题,重点在正则,做合并的时候先做做测试,看是否符合自己的预期。
真实数据测试时可以先做下数据筛选
#exclude_lines: ['^DBG']
#include_lines: ['^ERR', '^WARN']
拓展知识
filebeat和logstash的合并方式几乎无区别
input {
file {
path => "/var/*.log"
codec => multiline {
pattern => "^\[\d{2}-"
negate => true
what => "previous"
}
}
}
what确定合并属于上一个事件还是下一个事件,可以为next和previous
而filebeat对应的是multiline.match: after和before
这是一个传承的关系:
因为logstash是jvm跑的,资源消耗比较大,所以后来作者又用golang写了一个功能较少但是资源消耗也小的轻量级的logstash-forwarder。不过作者只是一个人,加入elastic以后,因为elastic本身还收购了另一个开源项目packetbeat,而这个项目专门就是用golang的,有整个团队,所以elastic干脆把logstash-forwarder的开发工作也合并到同一个golang团队来搞,于是新的项目就叫filebeat了。