Kafka集群跨双网段及多网段通信问题解决(避免踩坑)
创作时间:
作者:
@小白创作中心
Kafka集群跨双网段及多网段通信问题解决(避免踩坑)
引用
CSDN
1.
https://m.blog.csdn.net/qq_42862247/article/details/142596516
在实际生产环境中,Kafka集群跨网段通信是一个常见问题。本文通过三个版本的配置示例,详细展示了如何解决Kafka集群跨双网段及多网段通信问题,帮助读者避免踩坑。
一、问题场景
实际生产环境总存在很多Kafka集群跨网段的问题。Kafka集群可能存在多个网卡,对应多个网段。不同网段之间需要同时与集群通信,即跨网段生产消费问题。
二、解决方案
第一版配置(不可行)
# broker 的唯一标识符,在 Kafka 集群中必须唯一
broker.id=0
# Kafka 服务监听的地址和端口,这里使用明文协议监听在 10.168.200.250 的 9092 端口
listeners=PLAINTEXT://10.168.200.250:9092,PLAINTEXT://10.168.201.250:9092
# Listener name, hostname and port the broker will advertise to clients.
# If not set, it uses the value for "listeners".
#remote visit
advertised.listeners=PLAINTEXT://10.168.200.250:9092,PLAINTEXT://10.168.201.250:9092
# 用于处理网络请求的线程数
num.network.threads=5
# 用于执行磁盘 I/O 操作的线程数
num.io.threads=8
# 套接字发送缓冲区大小,单位为字节
socket.send.buffer.bytes=102400
# 套接字接收缓冲区大小,单位为字节
socket.receive.buffer.bytes=102400
# 单个请求的最大字节数
socket.request.max.bytes=104857600
# Kafka 日志文件的存储目录
log.dirs=/home/logs/kafka
# 每个主题的默认分区数量
num.partitions=1
# 每个数据目录用于恢复的线程数
num.recovery.threads.per.data.dir=1
# 偏移量主题的副本因子,决定了数据的冗余度
offsets.topic.replication.factor=1
# 事务状态日志的副本因子
transaction.state.log.replication.factor=1
# 事务状态日志的最小同步副本数量
transaction.state.log.min.isr=1
# 日志保留的小时数,超过这个时间的日志将被清理
log.retention.hours=24
# 日志清理策略,这里设置为删除旧日志
log.cleanup.policy=delete
# 日志段的大小,单位为字节,当一个日志段达到这个大小后会创建新的日志段
log.segment.bytes=1073741824
# 检查日志保留策略的时间间隔,单位为毫秒
log.retention.check.interval.ms=300000
# 连接 Zookeeper 的地址,这里是连接本地的 2181 端口
zookeeper.connect=localhost:2181
# 连接 Zookeeper 的超时时间,单位为毫秒
zookeeper.connection.timeout.ms=18000
# 消费者组初始平衡的延迟时间,单位为毫秒,设置为 0 表示不延迟
group.initial.rebalance.delay.ms=0
第二版配置(失败)
# broker 的唯一标识符,在 Kafka 集群中必须唯一
broker.id=0
# Kafka 服务监听的地址和端口,这里使用明文协议监听在 10.168.200.250 的 9092 端口
listeners=PLAINTEXT://0.0.0.0:9092
# 配置 Kafka 广播给客户端的地址和端口
advertised.listeners=PLAINTEXT://10.168.200.250:9092,PLAINTEXT://10.168.201.250:9092
# 用于处理网络请求的线程数
num.network.threads=5
# 用于执行磁盘 I/O 操作的线程数
num.io.threads=8
# 套接字发送缓冲区大小,单位为字节
socket.send.buffer.bytes=102400
# 套接字接收缓冲区大小,单位为字节
socket.receive.buffer.bytes=102400
# 单个请求的最大字节数
socket.request.max.bytes=104857600
# Kafka 日志文件的存储目录
log.dirs=/home/logs/kafka
# 每个主题的默认分区数量
num.partitions=1
# 每个数据目录用于恢复的线程数
num.recovery.threads.per.data.dir=1
# 偏移量主题的副本因子,决定了数据的冗余度
offsets.topic.replication.factor=1
# 事务状态日志的副本因子
transaction.state.log.replication.factor=1
# 事务状态日志的最小同步副本数量
transaction.state.log.min.isr=1
# 日志保留的小时数,超过这个时间的日志将被清理
log.retention.hours=24
# 日志清理策略,这里设置为删除旧日志
log.cleanup.policy=delete
# 日志段的大小,单位为字节,当一个日志段达到这个大小后会创建新的日志段
log.segment.bytes=1073741824
# 检查日志保留策略的时间间隔,单位为毫秒
log.retention.check.interval.ms=300000
# 连接 Zookeeper 的地址,这里是连接本地的 2181 端口
zookeeper.connect=localhost:2181
# 连接 Zookeeper 的超时时间,单位为毫秒
zookeeper.connection.timeout.ms=18000
# 消费者组初始平衡的延迟时间,单位为毫秒,设置为 0 表示不延迟
group.initial.rebalance.delay.ms=0
解释:
listeners=PLAINTEXT://0.0.0.0:9092:配置 Kafka 监听所有网络接口上的 9092 端口。advertised.listeners=PLAINTEXT://10.60.200.250:9092,PLAINTEXT://10.60.201.250:9092:配置 Kafka 广播给客户端的地址和端口。客户端连接时会使用这些地址。
第三版配置(亲测OK)
# broker 的唯一标识符,在 Kafka 集群中必须唯一
broker.id=0
# 配置 Kafka 监听的地址和端口
listeners=INTERNAL://10.168.200.250:9093,EXTERNAL://10.168.201.250:9092
# 配置 Kafka 广播给客户端的地址和端口
advertised.listeners=INTERNAL://10.168.200.250:9093,EXTERNAL://10.168.201.250:9092
# 指定 Kafka broker 之间的通信监听器
inter.broker.listener.name=INTERNAL
# Maps listener names to security protocols, the default is for them to be the same. See the config documentation for more details
listener.security.protocol.map=INTERNAL:PLAINTEXT,EXTERNAL:PLAINTEXT
# 用于处理网络请求的线程数
num.network.threads=5
# 用于执行磁盘 I/O 操作的线程数
num.io.threads=8
# 套接字发送缓冲区大小,单位为字节
socket.send.buffer.bytes=102400
# 套接字接收缓冲区大小,单位为字节
socket.receive.buffer.bytes=102400
# 单个请求的最大字节数
socket.request.max.bytes=104857600
# Kafka 日志文件的存储目录
log.dirs=/home/logs/kafka
# 每个主题的默认分区数量
num.partitions=1
# 每个数据目录用于恢复的线程数
num.recovery.threads.per.data.dir=1
# 偏移量主题的副本因子,决定了数据的冗余度
offsets.topic.replication.factor=1
# 事务状态日志的副本因子
transaction.state.log.replication.factor=1
# 事务状态日志的最小同步副本数量
transaction.state.log.min.isr=1
# 日志保留的小时数,超过这个时间的日志将被清理
log.retention.hours=24
# 日志清理策略,这里设置为删除旧日志
log.cleanup.policy=delete
# 日志段的大小,单位为字节,当一个日志段达到这个大小后会创建新的日志段
log.segment.bytes=1073741824
# 检查日志保留策略的时间间隔,单位为毫秒
log.retention.check.interval.ms=300000
# 连接 Zookeeper 的地址,这里是连接本地的 2181 端口
zookeeper.connect=localhost:2181
# 连接 Zookeeper 的超时时间,单位为毫秒
zookeeper.connection.timeout.ms=18000
# 消费者组初始平衡的延迟时间,单位为毫秒,设置为 0 表示不延迟
group.initial.rebalance.delay.ms=0
这个配置通过使用不同的监听器名称(INTERNAL和EXTERNAL)来区分内部和外部通信,成功解决了跨网段通信问题。
热门推荐
选择适合自己的高品质羊绒衫指南
沙特队惊险逆转!国足机会来了,伊万欲争3分
合约交易盈利指南:从计划制定到风险管理
别只会扎堆去三亚,这座常被当成中转站的老城才是真正的美食之都
写求职信的技巧介绍
如何计算六厘利率的利息?利率计算方法有哪些关键点?
如何利用MTM指标捕捉强势股?
汽车置换怎样进行计算?这种计算方式是否准确合理?
手机运行内存不足怎么办
胸闷感觉呼吸困难怎么解决
中年女性秋季穿搭指南:过膝裙、裤装、简约风全方位解析
驾驭Windows系统:手动更新驱动程序全攻略,让你轻松解决驱动问题
探究普洱茶与红牛同饮的影响及适宜人群
Spring Boot整合MyBatis入门教程
“衣”旧焕新,开启一场时尚与绿色生活的双向奔赴
“晕厥”和“晕倒”可不是一回事,前者一定要重视!
晕厥:大脑的“暂停键”,该如何应对?
如何理解利率的计算方式?这种计算方式如何应用于实际情况?
利息的计算方式如何理解?这种理解对财务规划有何作用?
南方周末2024年度十大好书
去了一趟上海和深圳,实话实说:上海人和深圳人差异确实挺大的!
青梅骑竹马(1v2)角色背景故事:青梅竹马与另一男孩之间的情感纠葛如何发展
高性能制造:由“精度”到“性能”的跃升
台式电脑怎么连接wifi,你知道吗
张平院士:6G应更重效率而非带宽
配送公司薪资体系怎么设计?
美司法部下场,苹果公司一夜蒸发8000亿!
解决notion国内访问速度慢的问题
高德地图GPS信号弱怎么办?全方位解决方案来了
眼轴能缩短?近视可回退?都是真的!但是……