文章目录
显示
Python微信订餐小程序课程视频
https://edu.csdn.net/course/detail/36074
Python实战量化交易理财系统
https://edu.csdn.net/course/detail/35475
一、filebeat 收集软链文件日志
1.1、场景
- 由于我们新部署的
Nginx
日志都是采用的软链的形式。
lrwxrwxrwx 1 root root 72 Apr 6 00:00 jy.baidu.com-80-access.log -> /usr/local/openresty/nginx/logs/jy.usmartsg.com-80-access.log.2022040600
-rw-r--r-- 1 nginx root 4502502 Apr 3 23:59 jy.baidu.com-80-access.log.2022040300
-rw-r--r-- 1 nginx root 5790629 Apr 5 00:00 jy.baidu.com-80-access.log.2022040400
-rw-r--r-- 1 nginx root 9166562 Apr 5 23:59 jy.baidu.com-80-access.log.2022040500
-rw-r--r-- 1 nginx root 2447936 Apr 6 09:31 jy.baidu.com-80-access.log.2022040600
- 我们收集日志的时候,通过配置
filebeat
收集日志文件jy.baidu.com-80-access.log
, 因为这个文件会一直软链到最新的日志文件。 - 但是我们会发现在启动
filebeat
后filebeat
并没有报错什么。 但是我们logstash
好像也没有往es 写日志。
1.2、问题排查
- 我们首先是通过开启
filebeat
的 debug模式,就是看下filebeat
的详细日志,这一步理论上来说,我们应该先通过kafka
看下是否有日志写入kafka
。 但是没有关系,我们通过看filebeat
的详细日志。 可以一步分析到位。
logging.level: debug
- 我们在日志中可以看到下面的信息
2022-04-03T19:48:21.675+0800 DEBUG [monitoring] memqueue/eventloop.go:228 handle ACK took: 54.938µs
2022-04-03T19:48:21.675+0800 DEBUG [monitoring] memqueue/ackloop.go:128 ackloop: return ack to broker loop:1
2022-04-03T19:48:21.675+0800 DEBUG [monitoring] memqueue/ackloop.go:131 ackloop: done send ack
2022-04-03T19:48:23.443+0800 DEBUG [input] input/input.go:152 Run input
2022-04-03T19:48:23.443+0800 DEBUG [input] log/input.go:174 Start next scan
2022-04-03T19:48:23.443+0800 DEBUG [input] log/input.go:273 File /usr/local/openresty/nginx/logs/jy.usmartsg.com-80-access.log skipped as it is a symlink.
2022-04-03T19:48:23.443+0800 DEBUG [input] log/input.go:195 input states cleaned up. Before: 1, After: 1, Pending: 0
2022-04-03T19:48:26.443+0800 DEBUG [input] input/input.go:152 Run input
2022-04-03T19:48:26.444+0800 DEBUG [input] log/input.go:174 Start next scan
日志内容
File /usr/local/openresty/nginx/logs/jy.usmartsg.com-80-access.log skipped as it is a symlink.
我们可以看到文件因为是软链接所以被忽略了。
- 我们查看官方文档,需要增加配置
symlinks: true
filebeat.inputs:
- type: log
symlinks: true
- 然后我们重启
filebeat
就可以看到有日志写入kafka了。
二、logstash
2.1、logstash 解析日志不写入es
每个人的场景不一样。这里只提供大概思路。
- kafka 是否有数据, 可以kafka consumer 进行订阅用不同的 group 来同一个 topic。 进行查看是否有kafka数据
- 看
logstash
启动是否有报错。
[2022-04-02T20:55:06,432][INFO ][logstash.runner ] Starting Logstash {"logstash.version"=>"6.8.0"}
[2022-04-02T20:55:07,554][ERROR][logstash.agent ] Failed to execute action {:action=>LogStash::PipelineAction::Create/pipeline\_id:main, :exception=>"LogStash::ConfigurationError", :message=>"Expected one of #, {, } at line 5, column 43 (byte 118) after input {\n kafka {\n group\_id => \"hz-sg\"\n topics => [\"hz-sg-nginxlog\"]\n bootstrap\_servers => \"10.59.4.50:9092\"", :backtrace=>["/usr/share/logstash/logstash-core/lib/logstash/compiler.rb:41:in `compile\_imperative'", "/usr/share/logstash/logstash-core/lib/logstash/compiler.rb:49:in `compile\_graph'", "/usr/share/logstash/logstash-core/lib/logstash/compiler.rb:11:in `block in compile\_sources'", "org/jruby/RubyArray.java:2577:in `map'", "/usr/share/logstash/logstash-core/lib/logstash/compiler.rb:10:in `compile\_sources'", "org/logstash/execution/AbstractPipelineExt.java:151:in `initialize'", "/usr/share/logstash/logstash-core/lib/logstash/pipeline.rb:22:in `initialize'", "/usr/share/logstash/logstash-core/lib/logstash/pipeline.rb:90:in `initialize'", "/usr/share/logstash/logstash-core/lib/logstash/pipeline\_action/create.rb:43:in `block in execute'", "/usr/share/logstash/logstash-core/lib/logstash/agent.rb:96:in `block in exclusive'", "org/jruby/ext/thread/Mutex.java:165:in `synchronize'", "/usr/share/logstash/logstash-core/lib/logstash/agent.rb:96:in `exclusive'", "/usr/share/logstash/logstash-core/lib/logstash/pipeline\_action/create.rb:39:in `execute'", "/usr/share/logstash/logstash-core/lib/logstash/agent.rb:334:in `block in converge\_state'"]}
[2022-04-02T20:55:07,807][INFO ][logstash.agent ] Successfully started Logstash API endpoint {:port=>9600}
[2022-04-02T20:55:12,703][INFO ][logstash.runner ] Logstash shut down.
像这种就是配置文件格式可能存在一些问题。
[2022-04-02T20:36:04,433][ERROR][logstash.pipeline ] Error registering plugin {:pipeline\_id=>"main", :plugin=>"#", :error=>"pattern %{SERVICE:service} not defined", :thread=>"#"}
这种报错就是我们没有定义变量的匹配规则。
- 还有一种是我们最近遇到了的,就是我在 es 的 output 的时候,引用了一个变量
service
。 但是前面没有定义这个。最后这个logstash 也没有报错,就是写不到 es 里面。
elasticsearch {
hosts => ["10.59.4.50","10.59.4.51","10.59.4.52"]
index => "%{[service]-%{+YYYY.MM.dd}"
template => "/etc/logstash/template/nginx.json"
template_name => "nginx.json"
template_overwrite => true
user => "elastic"
password => "1111111"
}
- 开启日志debug.
/etc/logstash/logstash.yml
#log.level: debug
2.2、logstash 配置多个后端
logstash -f /opt/logstash/conf/conf.d/
注意/conf.d/
后面不要加***** 这样会导致只匹配一个。
- 使用多个配置文件里面的input、filter、output 不是互相独立的。
logstash读取多个配置文件只是简单的将所有配置文件整合到了一起
如果要彼此独立,需要自己加字段,然后在output 判断一下 ,通过字段进行区分。