问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

Kafka集群跨双网段及多网段通信问题解决(避免踩坑)

创作时间:
作者:
@小白创作中心

Kafka集群跨双网段及多网段通信问题解决(避免踩坑)

引用
CSDN
1.
https://m.blog.csdn.net/qq_42862247/article/details/142596516

在实际生产环境中,Kafka集群跨网段通信是一个常见问题。本文通过三个版本的配置示例,详细展示了如何解决Kafka集群跨双网段及多网段通信问题,帮助读者避免踩坑。

一、问题场景

实际生产环境总存在很多Kafka集群跨网段的问题。Kafka集群可能存在多个网卡,对应多个网段。不同网段之间需要同时与集群通信,即跨网段生产消费问题。

二、解决方案

第一版配置(不可行)

# broker 的唯一标识符,在 Kafka 集群中必须唯一
broker.id=0
# Kafka 服务监听的地址和端口,这里使用明文协议监听在 10.168.200.250 的 9092 端口
listeners=PLAINTEXT://10.168.200.250:9092,PLAINTEXT://10.168.201.250:9092
# Listener name, hostname and port the broker will advertise to clients.
# If not set, it uses the value for "listeners".
#remote visit
advertised.listeners=PLAINTEXT://10.168.200.250:9092,PLAINTEXT://10.168.201.250:9092
# 用于处理网络请求的线程数
num.network.threads=5
# 用于执行磁盘 I/O 操作的线程数
num.io.threads=8
# 套接字发送缓冲区大小,单位为字节
socket.send.buffer.bytes=102400
# 套接字接收缓冲区大小,单位为字节
socket.receive.buffer.bytes=102400
# 单个请求的最大字节数
socket.request.max.bytes=104857600
# Kafka 日志文件的存储目录
log.dirs=/home/logs/kafka
# 每个主题的默认分区数量
num.partitions=1
# 每个数据目录用于恢复的线程数
num.recovery.threads.per.data.dir=1
# 偏移量主题的副本因子,决定了数据的冗余度
offsets.topic.replication.factor=1
# 事务状态日志的副本因子
transaction.state.log.replication.factor=1
# 事务状态日志的最小同步副本数量
transaction.state.log.min.isr=1
# 日志保留的小时数,超过这个时间的日志将被清理
log.retention.hours=24
# 日志清理策略,这里设置为删除旧日志
log.cleanup.policy=delete
# 日志段的大小,单位为字节,当一个日志段达到这个大小后会创建新的日志段
log.segment.bytes=1073741824
# 检查日志保留策略的时间间隔,单位为毫秒
log.retention.check.interval.ms=300000
# 连接 Zookeeper 的地址,这里是连接本地的 2181 端口
zookeeper.connect=localhost:2181
# 连接 Zookeeper 的超时时间,单位为毫秒
zookeeper.connection.timeout.ms=18000
# 消费者组初始平衡的延迟时间,单位为毫秒,设置为 0 表示不延迟
group.initial.rebalance.delay.ms=0

第二版配置(失败)

# broker 的唯一标识符,在 Kafka 集群中必须唯一
broker.id=0
# Kafka 服务监听的地址和端口,这里使用明文协议监听在 10.168.200.250 的 9092 端口
listeners=PLAINTEXT://0.0.0.0:9092
# 配置 Kafka 广播给客户端的地址和端口
advertised.listeners=PLAINTEXT://10.168.200.250:9092,PLAINTEXT://10.168.201.250:9092
# 用于处理网络请求的线程数
num.network.threads=5
# 用于执行磁盘 I/O 操作的线程数
num.io.threads=8
# 套接字发送缓冲区大小,单位为字节
socket.send.buffer.bytes=102400
# 套接字接收缓冲区大小,单位为字节
socket.receive.buffer.bytes=102400
# 单个请求的最大字节数
socket.request.max.bytes=104857600
# Kafka 日志文件的存储目录
log.dirs=/home/logs/kafka
# 每个主题的默认分区数量
num.partitions=1
# 每个数据目录用于恢复的线程数
num.recovery.threads.per.data.dir=1
# 偏移量主题的副本因子,决定了数据的冗余度
offsets.topic.replication.factor=1
# 事务状态日志的副本因子
transaction.state.log.replication.factor=1
# 事务状态日志的最小同步副本数量
transaction.state.log.min.isr=1
# 日志保留的小时数,超过这个时间的日志将被清理
log.retention.hours=24
# 日志清理策略,这里设置为删除旧日志
log.cleanup.policy=delete
# 日志段的大小,单位为字节,当一个日志段达到这个大小后会创建新的日志段
log.segment.bytes=1073741824
# 检查日志保留策略的时间间隔,单位为毫秒
log.retention.check.interval.ms=300000
# 连接 Zookeeper 的地址,这里是连接本地的 2181 端口
zookeeper.connect=localhost:2181
# 连接 Zookeeper 的超时时间,单位为毫秒
zookeeper.connection.timeout.ms=18000
# 消费者组初始平衡的延迟时间,单位为毫秒,设置为 0 表示不延迟
group.initial.rebalance.delay.ms=0

解释:

  • listeners=PLAINTEXT://0.0.0.0:9092:配置 Kafka 监听所有网络接口上的 9092 端口。
  • advertised.listeners=PLAINTEXT://10.60.200.250:9092,PLAINTEXT://10.60.201.250:9092:配置 Kafka 广播给客户端的地址和端口。客户端连接时会使用这些地址。

第三版配置(亲测OK)

# broker 的唯一标识符,在 Kafka 集群中必须唯一
broker.id=0
# 配置 Kafka 监听的地址和端口
listeners=INTERNAL://10.168.200.250:9093,EXTERNAL://10.168.201.250:9092
# 配置 Kafka 广播给客户端的地址和端口
advertised.listeners=INTERNAL://10.168.200.250:9093,EXTERNAL://10.168.201.250:9092
# 指定 Kafka broker 之间的通信监听器
inter.broker.listener.name=INTERNAL
# Maps listener names to security protocols, the default is for them to be the same. See the config documentation for more details
listener.security.protocol.map=INTERNAL:PLAINTEXT,EXTERNAL:PLAINTEXT
# 用于处理网络请求的线程数
num.network.threads=5
# 用于执行磁盘 I/O 操作的线程数
num.io.threads=8
# 套接字发送缓冲区大小,单位为字节
socket.send.buffer.bytes=102400
# 套接字接收缓冲区大小,单位为字节
socket.receive.buffer.bytes=102400
# 单个请求的最大字节数
socket.request.max.bytes=104857600
# Kafka 日志文件的存储目录
log.dirs=/home/logs/kafka
# 每个主题的默认分区数量
num.partitions=1
# 每个数据目录用于恢复的线程数
num.recovery.threads.per.data.dir=1
# 偏移量主题的副本因子,决定了数据的冗余度
offsets.topic.replication.factor=1
# 事务状态日志的副本因子
transaction.state.log.replication.factor=1
# 事务状态日志的最小同步副本数量
transaction.state.log.min.isr=1
# 日志保留的小时数,超过这个时间的日志将被清理
log.retention.hours=24
# 日志清理策略,这里设置为删除旧日志
log.cleanup.policy=delete
# 日志段的大小,单位为字节,当一个日志段达到这个大小后会创建新的日志段
log.segment.bytes=1073741824
# 检查日志保留策略的时间间隔,单位为毫秒
log.retention.check.interval.ms=300000
# 连接 Zookeeper 的地址,这里是连接本地的 2181 端口
zookeeper.connect=localhost:2181
# 连接 Zookeeper 的超时时间,单位为毫秒
zookeeper.connection.timeout.ms=18000
# 消费者组初始平衡的延迟时间,单位为毫秒,设置为 0 表示不延迟
group.initial.rebalance.delay.ms=0

这个配置通过使用不同的监听器名称(INTERNAL和EXTERNAL)来区分内部和外部通信,成功解决了跨网段通信问题。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号