Young's blog Young's blog
首页
Spring
  • 前端文章1

    • JavaScript
  • 学习笔记

    • 《JavaScript教程》
    • 《JavaScript高级程序设计》
    • 《ES6 教程》
    • 《Vue》
    • 《React》
    • 《TypeScript 从零实现 axios》
    • 《Git》
    • TypeScript
    • JS设计模式总结
  • HTML
  • CSS
  • 技术文档
  • GitHub技巧
  • Nodejs
  • 博客搭建
  • 学习
  • 面试
  • 心情杂货
  • 实用技巧
  • 友情链接
关于
收藏
  • 分类
  • 标签
  • 归档
GitHub (opens new window)

Young

首页
Spring
  • 前端文章1

    • JavaScript
  • 学习笔记

    • 《JavaScript教程》
    • 《JavaScript高级程序设计》
    • 《ES6 教程》
    • 《Vue》
    • 《React》
    • 《TypeScript 从零实现 axios》
    • 《Git》
    • TypeScript
    • JS设计模式总结
  • HTML
  • CSS
  • 技术文档
  • GitHub技巧
  • Nodejs
  • 博客搭建
  • 学习
  • 面试
  • 心情杂货
  • 实用技巧
  • 友情链接
关于
收藏
  • 分类
  • 标签
  • 归档
GitHub (opens new window)
  • Hadoop

  • kafka

    • kafka3.0入门
    • kafka3.0 生产者
    • kafka3.0 broker
    • Kafka 消费者
    • Kafka-Kraft 模式
      • 第 7 章 Kafka-Kraft 模式
      • 7.1 Kafka-Kraft 架构
      • 7.2 Kafka-Kraft 集群部署
        • 1)再次解压一份 kafka 安装包
        • 2)重命名为 kafka2
        • 3)在 hadoop102 上修改/opt/module/kafka2/config/kraft/server.properties 配置文件
        • 4)分发 kafka2
        • 5)初始化集群数据目录
        • 6)启动 kafka 集群
        • 7)停止 kafka 集群
      • 7.3 Kafka-Kraft 集群启动停止脚本
        • 1)在/home/andanyoung/bin 目录下创建文件 kf2.sh 脚本文件
        • 2)添加执行权限
        • 3)启动集群命令
        • 4)停止集群命令
    • Kafka 整体流程
    • Kafka 幂等性和事务
    • Kafka 外部系统集成 Springboot
    • Kafka生产调优手册
  • Flume

  • hive

  • scala

  • spark

  • 大数据
  • kafka
andanyang
2023-09-23
目录

Kafka-Kraft 模式

# 第 7 章 Kafka-Kraft 模式

# 7.1 Kafka-Kraft 架构

image-20230926231711221

左图为 Kafka 现有架构,元数据在 zookeeper 中,运行时动态选举 controller,由 controller 进行 Kafka 集群管理。右图为 kraft 模式架构(实验性),不再依赖 zookeeper 集群, 而是用三台 controller 节点代替 zookeeper,元数据保存在 controller 中,由 controller 直接进行 Kafka 集群管理。

这样做的好处有以下几个:

  • Kafka 不再依赖外部框架,而是能够独立运行;
  • controller 管理集群时,不再需要从 zookeeper 中先读取数据,集群性能上升;
  • 由于不依赖 zookeeper,集群扩展时不再受到 zookeeper 读写能力限制;
  • controller 不再动态选举,而是由配置文件规定。这样我们可以有针对性的加强 controller 节点的配置,而不是像以前一样对随机 controller 节点的高负载束手无策。

# 7.2 Kafka-Kraft 集群部署

# 1)再次解压一份 kafka 安装包

[andanyoung@hadoop102 software]$ tar -zxvf kafka_2.12-3.0.0.tgz -C /opt/module/
1

# 2)重命名为 kafka2

[andanyoung@hadoop102 module]$ mv kafka_2.12-3.0.0/ kafka2
1

# 3)在 hadoop102 上修改/opt/module/kafka2/config/kraft/server.properties 配置文件

[andanyoung@hadoop102 kraft]$ vim server.properties

#kafka 的角色(controller 相当于主机、broker 节点相当于从机,主机类似 zk 功
能)
process.roles=broker, controller
#节点 ID
node.id=2
#controller 服务协议别名
controller.listener.names=CONTROLLER
#全 Controller 列表
controller.quorum.voters=2@hadoop102:9093,3@hadoop103:9093,4@hadoop104:9093
#不同服务器绑定的端口
listeners=PLAINTEXT://:9092,CONTROLLER://:9093
#broker 服务协议别名
inter.broker.listener.name=PLAINTEXT
#broker 对外暴露的地址
advertised.Listeners=PLAINTEXT://hadoop102:9092
#协议别名到安全协议的映射
listener.security.protocol.map=CONTROLLER:PLAINTEXT,PLAINTEXT:PLAINTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL
#kafka 数据存储目录
log.dirs=/opt/module/kafka2/data
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21

# 4)分发 kafka2

[andanyoung@hadoop102 module]$ xsync kafka2/
1
  • 在 hadoop103 和 hadoop104 上 需 要 对 node.id 相应改变 , 值需要和 controller.quorum.voters 对应。
  • 在 hadoop103 和 hadoop104 上需要 根据各自的主机名称,修改相应的 advertised.Listeners 地址。

# 5)初始化集群数据目录

(1)首先生成存储目录唯一 ID。

[andanyoung@hadoop102 kafka2]$ bin/kafka-storage.sh random-uuid
J7s9e8PPTKOO47PxzI39VA
1
2

(2)用该 ID 格式化 kafka 存储目录(三台节点)。

[andanyoung@hadoop102 kafka2]$ bin/kafka-storage.sh format -t J7s9e8PPTKOO47PxzI39VA -c /opt/module/kafka2/config/kraft/server.properties

[andanyoung@hadoop103 kafka2]$ bin/kafka-storage.sh format -t J7s9e8PPTKOO47PxzI39VA -c /opt/module/kafka2/config/kraft/server.properties

[andanyoung@hadoop104 kafka2]$ bin/kafka-storage.sh format -t J7s9e8PPTKOO47PxzI39VA -c /opt/module/kafka2/config/kraft/server.properties
1
2
3
4
5

# 6)启动 kafka 集群

[andanyoung@hadoop102 kafka2]$ bin/kafka-server-start.sh -daemon config/kraft/server.properties

[andanyoung@hadoop103 kafka2]$ bin/kafka-server-start.sh -daemon config/kraft/server.properties

[andanyoung@hadoop104 kafka2]$ bin/kafka-server-start.sh -daemon config/kraft/server.properties
1
2
3
4
5

# 7)停止 kafka 集群

[andanyoung@hadoop102 kafka2]$ bin/kafka-server-stop.sh
[andanyoung@hadoop103 kafka2]$ bin/kafka-server-stop.sh
[andanyoung@hadoop104 kafka2]$ bin/kafka-server-stop.sh
1
2
3

# 7.3 Kafka-Kraft 集群启动停止脚本

# 1)在/home/andanyoung/bin 目录下创建文件 kf2.sh 脚本文件

[andanyoung@hadoop102 bin]$ vim kf2.sh
1

脚本如下:

#! /bin/bash
case $1 in
"start"){
	for i in hadoop102 hadoop103 hadoop104
	do
		echo " --------启动 $i Kafka2-------"
		ssh $i "/opt/module/kafka2/bin/kafka-server-start.sh -daemon /opt/module/kafka2/config/kraft/server.properties"
    done
};;
"stop"){
     for i in hadoop102 hadoop103 hadoop104
     do
     	echo " --------停止 $i Kafka2-------"
     	ssh $i "/opt/module/kafka2/bin/kafka-server-stop.sh "
     done
};;
esac
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17

# 2)添加执行权限

[andanyoung@hadoop102 bin]$ chmod +x kf2.sh
1

# 3)启动集群命令

[andanyoung@hadoop102 ~]$ kf2.sh start
1

# 4)停止集群命令

[andanyoung@hadoop102 ~]$ kf2.sh stop
1
编辑 (opens new window)
上次更新: 2024/04/19, 08:52:45
Kafka 消费者
Kafka 整体流程

← Kafka 消费者 Kafka 整体流程→

最近更新
01
idea 热部署插件 JRebel 安装及破解,不生效问题解决
04-10
02
spark中代码的执行位置(Driver or Executer)
12-12
03
大数据技术之 SparkStreaming
12-12
更多文章>
Theme by Vdoing | Copyright © 2019-2024 Young | MIT License
浙ICP备20002744号
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式