千家信息网

LogStash中 filter如何使用

发表于:2024-12-12 作者:千家信息网编辑
千家信息网最后更新 2024年12月12日,LogStash中 filter如何使用,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。<一> grok自定义grok格式
千家信息网最后更新 2024年12月12日LogStash中 filter如何使用

LogStash中 filter如何使用,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。

<一> grok

  1. 自定义grok格式

    在conf 文件的文件夹同级目录下,一般是在patterns 文件夹下,建立自己的pattern 文件,比如extra 文件

    # contents of ./patterns/postfix:

    POSTFIX_QUEUEID [0-9A-F]{10,11}

使用举例,针对日志格式:Jan 1 06:25:43 mailserver14 postfix/cleanup[21403]: BEF25A72965: message-id=<20130101142543.5828399CCAF@mailserver14

conf 配置:

grok{

patterns_dir => "./patterns"

match => [ "message", "%{SYSLOGBASE} %{POSTFIX_QUEUEID:queue_id}: %{GREEDYDATA:syslog_message}" ]

}

}

结果为:

匹配正确

2.一些比较神奇的Grok Pattern

比如:GREEDYDATA .*

说明:如果我不想面面俱到的匹配一坨东西,直接用Greedydata

举例:比如匹配,52:awfasdf0r8b123e:222g1g16:885579b2:9afr

在filter 的grok 中,添加%{GREEDYDATA:sth},即可匹配上面那一串。如果你想更详细的匹配,那就自己写正则,对每一项进行匹配。

<二>

<三> 实际使用举例

1. 想处理java 日志信息,包括正常的info 与错误的堆栈信息怎么处理?

思路:

filter 中,使用 multiline 对日志信息进行分组;然后使用grok 进行拆分。

需要注意的事情,可能会遇到换行的问题,这个时候怎么做?

这个时候的处理是这样的,使用GREEDYDATA 是无效的,因为这只是匹配 .* ,而 . 是不匹配 newline 的,这个时候,应该将 GreedyData 换成:

(?(.|\r|\n)*)

看完上述内容是否对您有帮助呢?如果还想对相关知识有进一步的了解或阅读更多相关文章,请关注行业资讯频道,感谢您对的支持。

0