Kafka集群跨双网段及多网段通信问题解决(避免踩坑)
创作时间:
作者:
@小白创作中心
Kafka集群跨双网段及多网段通信问题解决(避免踩坑)
引用
CSDN
1.
https://m.blog.csdn.net/qq_42862247/article/details/142596516
在实际生产环境中,Kafka集群跨网段通信是一个常见问题。本文通过三个版本的配置示例,详细展示了如何解决Kafka集群跨双网段及多网段通信问题,帮助读者避免踩坑。
一、问题场景
实际生产环境总存在很多Kafka集群跨网段的问题。Kafka集群可能存在多个网卡,对应多个网段。不同网段之间需要同时与集群通信,即跨网段生产消费问题。
二、解决方案
第一版配置(不可行)
# broker 的唯一标识符,在 Kafka 集群中必须唯一
broker.id=0
# Kafka 服务监听的地址和端口,这里使用明文协议监听在 10.168.200.250 的 9092 端口
listeners=PLAINTEXT://10.168.200.250:9092,PLAINTEXT://10.168.201.250:9092
# Listener name, hostname and port the broker will advertise to clients.
# If not set, it uses the value for "listeners".
#remote visit
advertised.listeners=PLAINTEXT://10.168.200.250:9092,PLAINTEXT://10.168.201.250:9092
# 用于处理网络请求的线程数
num.network.threads=5
# 用于执行磁盘 I/O 操作的线程数
num.io.threads=8
# 套接字发送缓冲区大小,单位为字节
socket.send.buffer.bytes=102400
# 套接字接收缓冲区大小,单位为字节
socket.receive.buffer.bytes=102400
# 单个请求的最大字节数
socket.request.max.bytes=104857600
# Kafka 日志文件的存储目录
log.dirs=/home/logs/kafka
# 每个主题的默认分区数量
num.partitions=1
# 每个数据目录用于恢复的线程数
num.recovery.threads.per.data.dir=1
# 偏移量主题的副本因子,决定了数据的冗余度
offsets.topic.replication.factor=1
# 事务状态日志的副本因子
transaction.state.log.replication.factor=1
# 事务状态日志的最小同步副本数量
transaction.state.log.min.isr=1
# 日志保留的小时数,超过这个时间的日志将被清理
log.retention.hours=24
# 日志清理策略,这里设置为删除旧日志
log.cleanup.policy=delete
# 日志段的大小,单位为字节,当一个日志段达到这个大小后会创建新的日志段
log.segment.bytes=1073741824
# 检查日志保留策略的时间间隔,单位为毫秒
log.retention.check.interval.ms=300000
# 连接 Zookeeper 的地址,这里是连接本地的 2181 端口
zookeeper.connect=localhost:2181
# 连接 Zookeeper 的超时时间,单位为毫秒
zookeeper.connection.timeout.ms=18000
# 消费者组初始平衡的延迟时间,单位为毫秒,设置为 0 表示不延迟
group.initial.rebalance.delay.ms=0
第二版配置(失败)
# broker 的唯一标识符,在 Kafka 集群中必须唯一
broker.id=0
# Kafka 服务监听的地址和端口,这里使用明文协议监听在 10.168.200.250 的 9092 端口
listeners=PLAINTEXT://0.0.0.0:9092
# 配置 Kafka 广播给客户端的地址和端口
advertised.listeners=PLAINTEXT://10.168.200.250:9092,PLAINTEXT://10.168.201.250:9092
# 用于处理网络请求的线程数
num.network.threads=5
# 用于执行磁盘 I/O 操作的线程数
num.io.threads=8
# 套接字发送缓冲区大小,单位为字节
socket.send.buffer.bytes=102400
# 套接字接收缓冲区大小,单位为字节
socket.receive.buffer.bytes=102400
# 单个请求的最大字节数
socket.request.max.bytes=104857600
# Kafka 日志文件的存储目录
log.dirs=/home/logs/kafka
# 每个主题的默认分区数量
num.partitions=1
# 每个数据目录用于恢复的线程数
num.recovery.threads.per.data.dir=1
# 偏移量主题的副本因子,决定了数据的冗余度
offsets.topic.replication.factor=1
# 事务状态日志的副本因子
transaction.state.log.replication.factor=1
# 事务状态日志的最小同步副本数量
transaction.state.log.min.isr=1
# 日志保留的小时数,超过这个时间的日志将被清理
log.retention.hours=24
# 日志清理策略,这里设置为删除旧日志
log.cleanup.policy=delete
# 日志段的大小,单位为字节,当一个日志段达到这个大小后会创建新的日志段
log.segment.bytes=1073741824
# 检查日志保留策略的时间间隔,单位为毫秒
log.retention.check.interval.ms=300000
# 连接 Zookeeper 的地址,这里是连接本地的 2181 端口
zookeeper.connect=localhost:2181
# 连接 Zookeeper 的超时时间,单位为毫秒
zookeeper.connection.timeout.ms=18000
# 消费者组初始平衡的延迟时间,单位为毫秒,设置为 0 表示不延迟
group.initial.rebalance.delay.ms=0
解释:
listeners=PLAINTEXT://0.0.0.0:9092:配置 Kafka 监听所有网络接口上的 9092 端口。advertised.listeners=PLAINTEXT://10.60.200.250:9092,PLAINTEXT://10.60.201.250:9092:配置 Kafka 广播给客户端的地址和端口。客户端连接时会使用这些地址。
第三版配置(亲测OK)
# broker 的唯一标识符,在 Kafka 集群中必须唯一
broker.id=0
# 配置 Kafka 监听的地址和端口
listeners=INTERNAL://10.168.200.250:9093,EXTERNAL://10.168.201.250:9092
# 配置 Kafka 广播给客户端的地址和端口
advertised.listeners=INTERNAL://10.168.200.250:9093,EXTERNAL://10.168.201.250:9092
# 指定 Kafka broker 之间的通信监听器
inter.broker.listener.name=INTERNAL
# Maps listener names to security protocols, the default is for them to be the same. See the config documentation for more details
listener.security.protocol.map=INTERNAL:PLAINTEXT,EXTERNAL:PLAINTEXT
# 用于处理网络请求的线程数
num.network.threads=5
# 用于执行磁盘 I/O 操作的线程数
num.io.threads=8
# 套接字发送缓冲区大小,单位为字节
socket.send.buffer.bytes=102400
# 套接字接收缓冲区大小,单位为字节
socket.receive.buffer.bytes=102400
# 单个请求的最大字节数
socket.request.max.bytes=104857600
# Kafka 日志文件的存储目录
log.dirs=/home/logs/kafka
# 每个主题的默认分区数量
num.partitions=1
# 每个数据目录用于恢复的线程数
num.recovery.threads.per.data.dir=1
# 偏移量主题的副本因子,决定了数据的冗余度
offsets.topic.replication.factor=1
# 事务状态日志的副本因子
transaction.state.log.replication.factor=1
# 事务状态日志的最小同步副本数量
transaction.state.log.min.isr=1
# 日志保留的小时数,超过这个时间的日志将被清理
log.retention.hours=24
# 日志清理策略,这里设置为删除旧日志
log.cleanup.policy=delete
# 日志段的大小,单位为字节,当一个日志段达到这个大小后会创建新的日志段
log.segment.bytes=1073741824
# 检查日志保留策略的时间间隔,单位为毫秒
log.retention.check.interval.ms=300000
# 连接 Zookeeper 的地址,这里是连接本地的 2181 端口
zookeeper.connect=localhost:2181
# 连接 Zookeeper 的超时时间,单位为毫秒
zookeeper.connection.timeout.ms=18000
# 消费者组初始平衡的延迟时间,单位为毫秒,设置为 0 表示不延迟
group.initial.rebalance.delay.ms=0
这个配置通过使用不同的监听器名称(INTERNAL和EXTERNAL)来区分内部和外部通信,成功解决了跨网段通信问题。
热门推荐
心理咨询师的提问艺术:如何通过提问促进深度沟通
安徽旅游打卡圣地,黄山九华山宏村西递天堂寨,你Pick哪个?
昆明一日游:穿越古今,品味滇韵
玩手机游戏的正确姿势,拯救你的手腕
学步期小孩与宠物共处安全指南
冬季健康指南:碳酸饮料怎么喝才对?
碳酸饮料:健康风险与饮用建议
柳云龙陈数重聚忆《暗算》:一部奠定两人地位的经典之作
《史记·历书》揭秘甲子日的天文奥秘
甲子纪年:时间哲学的东方智慧
2025元旦:新年的开始,未来的序章
沈阳地铁3号线最新进展:西段力争年底试运行,东段面临施工难题
大连地铁4号线:东段进展迅猛 金-金左线贯通!西段多站缓建
魔兽世界:梦魇之王萨维斯的堕落之路
家谱热背后的家族传承秘密
《暗算》揭秘历史风云,你猜对结局了吗?
《暗算》揭秘:密码机背后的黑科技
周深海外世巡演唱会再创辉煌,音乐感动全球粉丝
家务劳动,竟然能拯救你的心理健康?
只需3㎡!打造超实用家政间,家务效率翻倍!
《亨利爱帮忙》:如何让孩子爱上做家务
饭后10分钟可以做雾化吗?
雾化是饭前做好还是饭后做好
饭后10分钟可以做雾化吗?
雾化是饭前做好还是饭后做好
揭秘《暗算》阿炳:一个虚构角色背后的科学与历史
《暗算》中黄依依和阿炳的心理剖析
《暗算》:谍战剧开山之作,必看经典
感恩节向老师表白的神仙文案
亲子徒步,全家总动员的成长之旅