0
点赞
收藏
分享

微信扫一扫

ELK+Kafka学习笔记之FileBeat日志合并配置输出到kafka集群


filebeat.prospectors:

- type: log #日志输出类型
enabled: true
paths: #定义收集日志的目录
- /data/apps/logs/test1/*
fields: #自定义的两个字段,区分日志类型及host
type: test1
host: 161


ignore_older: 1h #忽略一小时以为的日志变化

multiline.pattern: '(WARN|DEBUG|ERROR|INFO) \d{4}/\d{2}/\d{2}' #正则匹配 符合的日志文件.
multiline.negate: true #为true,表示不满足正则匹配条件的日志
multiline.match: after #after 追加到文件后面


filebeat.config.modules:
path: ${path.config}/modules.d/*.yml

reload.enabled: false

setup.template.settings:
index.number_of_shards: 3

output.kafka:
enabled: true
hosts: ["192.168.0.11:9092","192.168.0.12:9092","192.168.0.13:9092"]
topic: "test-log"


注:multiline字段,必须每个日志类型一个,不然日志不会合并.(坑)

样例图:

ELK+Kafka学习笔记之FileBeat日志合并配置输出到kafka集群_ELK


​​参考​​




举报

相关推荐

0 条评论