我正试图结束对卡夫卡的改变,但我已经不知所措,很难调试这个问题。
我有多个服务器将他们的Rails日志传送到一个Kafka broker,使用Filebeat,从那里这些日志转到我们的Logstash服务器,然后存储在Elasticsearch中。我没有设置原始系统,但我尝试把我们从3卡夫卡服务器下降到1,因为他们是不需要的。我在设置中更新了这些文件中的IP地址,以删除2台旧的Kafka服务器,并重新启动适当的服务。
# main (filebeat)
sudo vi /etc/filebeat/filebeat.yml
sudo service filebeat restart
# kafka
sudo vi /etc/hosts
sudo vi /etc/kafka/config/server.properties
sudo vi /etc/zookeeper/conf/zoo.cfg
sudo vi /etc/filebeat/filebeat.yml
sudo service kafka-server restart
sudo service zookeeper-server restart
sudo service filebeat restart
# elasticsearch
sudo service elasticsearch restart
# logstash
sudo vi /etc/logstash/conf.d/00-input-kafka.conf
sudo service logstash restart
sudo service kibana restart当我跟踪档案日志时我看到-
2018-04-23T15:20:05Z WARN kafka message: client/metadata got error from broker while fetching metadata:%!(EXTRA *net.OpError=dial tcp 172.16.137.132:9092: getsockopt: connection refused)
2018-04-23T15:20:05Z WARN kafka message: client/metadata no available broker to send metadata request to
2018-04-23T15:20:05Z WARN client/brokers resurrecting 1 dead seed brokers
2018-04-23T15:20:05Z WARN kafka message: Closing Client
2018-04-23T15:20:05Z ERR Kafka connect fails with: kafka: client has run out of available brokers to talk to (Is your cluster reachable?)发布于 2018-04-24 00:58:07
卡夫卡经纪人..。我试着把我们从3台卡夫卡服务器降到1台,因为它们是不需要的。我在安装过程中更新了这些文件中的IP地址,以删除2台旧Kafka服务器,并重新启动适当的服务。
我想你误解了,Kafka只是一个高度可用的系统,如果您有多个代理,那么其他的2就需要,尽管您可能只在logstash配置中提供了一个代理。
您的错误声明单个代理拒绝连接,因此不会向其发送任何日志。
至少,我推荐4个代理,以及一个有用的Kafka集群的所有关键主题的复制因子3。这样,您就可以容忍代理中断,以及分配您的卡夫卡经纪人的负担。
例如,将主题作为整个日志服务器的一个因素,并根据应用程序类型键入Kafka消息也是有益的。这样,您就可以保证这些应用程序的日志订单。
https://stackoverflow.com/questions/49988530
复制相似问题