是否可以通过filebeat.yml文件中文件节拍使用输出作为output.azure,并从本地文件输入,或者我们需要Kafka作为输出以将日志注入到eventhub azure。
据我所知,只有我能看到kafka模块作为输出模块,用于将日志发送到Azure EventHub
和存储帐户是必要的,即使是注射??
谢谢!
发布于 2021-10-28 19:10:47
我们通过kafka surface使用事件集线器的文件节拍。在您的filebeat.yaml中,您可以使用指向event hubs实例的普通kafka输出。你的配置应该是这样的:
output.kafka:
topic: ${event_hub_connect_topic}
required_acks: 1
client_id: filebeat
version: '1.0.0'
hosts:
- ${event_hub_connect_hosts}
username: "$ConnectionString"
password: ${event_hub_connect_string}
ssl.enabled: true
compression: none请注意,您可以在这些设置中使用env vars。因为我们在k8s中使用了filebeat,所以我们通过一个秘密来提供它们。
至于存储帐号,我相信只有当您想要使用事件中心的捕获功能时才需要它。
https://stackoverflow.com/questions/69729046
复制相似问题