最近,我们将使用file节拍将我们的系统日志收集到elasticsearch vias:
${local_log_file} -> filebeat -> kafka -> logstash -> elasticsearch -> kibana在测试我们的系统时,我们发现了一种场景,即文件节拍将重复收集日志,这意味着一旦发生更改,它将从文件开始收集日志。
以下是我对file节拍的配置:
filebeat.prospectors:
- input_type: log
paths:
- /home/XXX/exp/*.log
scan_frequency: 1s
#tail_files: true
#================================ Outputs =====================================
#----------------------------- Logstash output --------------------------------
# output.logstash:
# hosts: ["localhost:5044"]
#----------------------------- Kafka output -----------------------------------
output.kafka:
enabled: true
hosts: ["10.10.1.103:9092"]
topic: egou
#----------------------------- console output --------------------------------
output.console:
enabled: true
pretty: true注意:
希望你们能提供任何有用的提示。
发布于 2017-10-16 06:37:42
我认为这是因为编辑器,您正在使用,创建一个新的文件保存与新的元数据。Filebeat使用它的元数据而不是内容来标识文件的状态。
试试看
echo "something" >> /path/to/file.log参考文献:https://discuss.elastic.co/t/filebeat-repeatedly-sending-old-entries-in-log-file/55796
https://stackoverflow.com/questions/46721239
复制相似问题