iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > Python >关于kafka消费不到远程bootstrap-server 数据的问题
  • 376
分享到

关于kafka消费不到远程bootstrap-server 数据的问题

2024-04-02 19:04:59 376人浏览 薄情痞子

Python 官方文档:入门教程 => 点击学习

摘要

本文重点给大家介绍kafka消费不到远程bootstrap-server 数据的问题原因分析及解决方法,内容如下所示: 问题 执行 ./bin/kafka-console-consu

本文重点给大家介绍kafka消费不到远程bootstrap-server 数据的问题原因分析及解决方法,内容如下所示:

问题

执行 ./bin/kafka-console-consumer.sh --bootstrap-server 10.10.151.12:6667 --topic flink_test
取不到数据没有任何返回,也没有报错

解决

使用./bin/kafka-console-consumer.sh --ZooKeeper 10.10.151.12:2181 --topic flink_test
终于看到报错信息了


[2020-12-02 10:06:41,087] WARN [console-consumer-73229_localhost.localdomain-1606874800409-65d73e12-leader-finder-thread]: Failed to add leader for partitions flink_test-5,flink_test-16,flink_test-2,flink_test-13,flink_test-21,flink_test-10,flink_test-15,flink_test-4,flink_test-7,flink_test-18,flink_test-1,flink_test-23,flink_test-12,flink_test-20,flink_test-9,flink_test-6,flink_test-17,flink_test-22,flink_test-3,flink_test-14,flink_test-19,flink_test-8,flink_test-0,flink_test-11; will retry (kafka.consumer.ConsumerFetcherManager$LeaderFinderThread)
java.NIO.channels.ClosedChannelException
	at kafka.network.BlockinGChannel.send(BlockingChannel.Scala:112)
	at kafka.consumer.SimpleConsumer.liftedTree1$1(SimpleConsumer.scala:101)
	at kafka.consumer.SimpleConsumer.kafka$consumer$SimpleConsumer$$sendRequest(SimpleConsumer.scala:86)
	at kafka.consumer.SimpleConsumer.getOffsetsBefore(SimpleConsumer.scala:152)
	at kafka.consumer.SimpleConsumer.earliestOrLatestOffset(SimpleConsumer.scala:191)
	at kafka.consumer.ConsumerFetcherThread.handleOffsetOutOfRange(ConsumerFetcherThread.scala:92)
	at kafka.server.AbstractFetcherThread$$anonfun$7.apply(AbstractFetcherThread.scala:243)
	at kafka.server.AbstractFetcherThread$$anonfun$7.apply(AbstractFetcherThread.scala:240)
	at scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala:234)
	at scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala:234)
	at scala.collection.immutable.HashMap$HashMap1.foreach(HashMap.scala:221)
	at scala.collection.immutable.HashMap$HashTrieMap.foreach(HashMap.scala:428)
	at scala.collection.TraversableLike$class.map(TraversableLike.scala:234)
	at scala.collection.AbstractTraversable.map(Traversable.scala:104)
	at kafka.server.AbstractFetcherThread.addPartitions(AbstractFetcherThread.scala:240)
	at kafka.server.AbstractFetcherManager$$anonfun$addFetcherForPartitions$2.apply(AbstractFetcherManager.scala:97)
	at kafka.server.AbstractFetcherManager$$anonfun$addFetcherForPartitions$2.apply(AbstractFetcherManager.scala:85)
	at scala.collection.TraversableLike$WithFilter$$anonfun$foreach$1.apply(TraversableLike.scala:733)
	at scala.collection.immutable.Map$Map3.foreach(Map.scala:161)
	at scala.collection.TraversableLike$WithFilter.foreach(TraversableLike.scala:732)
	at kafka.server.AbstractFetcherManager.addFetcherForPartitions(AbstractFetcherManager.scala:85)
	at kafka.consumer.ConsumerFetcherManager$LeaderFinderThread.doWork(ConsumerFetcherManager.scala:96)
	at kafka.utils.ShutdownableThread.run(ShutdownableThread.scala:64)

修改/etc/hosts文件


10.10.151.11 test01
10.10.151.12 test02
10.10.151.13 test03

重新执行./bin/kafka-console-consumer.sh --bootstrap-server 10.10.151.12:6667 --topic flink_test
成功获取数据

原因分析

1.原来kafka消费者和kafka server 在一个集群中hosts文件都一样,所以没有问题。
2.新的kafka消费者是我新加的一个机器,是独立于集群的,但是需要消费集群中部分数据做实验用
3.集群中的kafka配置中使用的的是hostname,所以新加的机器没有配hosts就连接不上
4.kafka版本比较老了是1.0.0,但是我们项目定版了,这个版就要用1.0.0版防止冲突,下个版本我在升级一下吧。

到此这篇关于关于kafka消费不到远程bootstrap-server 数据的问题的文章就介绍到这了,更多相关kafka bootstrap-server 数据内容请搜索编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程网!

--结束END--

本文标题: 关于kafka消费不到远程bootstrap-server 数据的问题

本文链接: https://www.lsjlt.com/news/158541.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作