• 基于Zookeeper搭建Kafka高可用集群(实践可用)


    目录

    一、Zookeeper集群搭建

    1.1 下载 & 解压

    1.2 修改配置

    1.3 标识节点

    1.4 启动集群

    1.5 集群验证

    二、Kafka集群搭建

    2.1 下载解压

    2.2 拷贝配置文件

    2.3 修改配置

    2.4 启动集群

    2.5 创建测试主题

    2.6 写入数据测试


    一、Zookeeper集群搭建

    为保证集群高可用,Zookeeper 集群的节点数最好是奇数,最少有三个节点,所以这里搭建一个三个节点的集群。

    1.1 下载 & 解压

    下载对应版本 Zookeeper,这里我下载的版本 3.4.14。官方下载地址:https://archive.apache.org/dist/zookeeper/

    1. # 下载
    2. wget https://archive.apache.org/dist/zookeeper/zookeeper-3.4.14/zookeeper-3.4.14.tar.gz
    3. # 解压
    4. tar -zxvf zookeeper-3.4.14.tar.gz

    1.2 修改配置

    拷贝三份 zookeeper 安装包。分别进入安装目录的 conf 目录,拷贝配置样本 zoo_sample.cfg  为 zoo.cfg 并进行修改,修改后三份配置文件内容分别如下:

    zookeeper01 配置:

    1. tickTime=2000
    2. initLimit=10
    3. syncLimit=5
    4. dataDir=/usr/local/zookeeper-cluster/data/01
    5. dataLogDir=/usr/local/zookeeper-cluster/log/01
    6. clientPort=2181
    7. # server.1 这个1是服务器的标识,可以是任意有效数字,标识这是第几个服务器节点,这个标识要写到dataDir目录下面myid文件里
    8. # 指名集群间通讯端口和选举端口
    9. server.1=host1:2287:3387
    10. server.2=host2:2287:3387
    11. server.3=host3:2287:3387

    如果是多台服务器,则集群中每个节点通讯端口和选举端口可相同,IP 地址修改为每个节点所在主机 IP 即可。

    zookeeper02 配置,与 zookeeper01 相比,只有 dataDir、dataLogDir 和 clientPort 不同:

    1. tickTime=2000
    2. initLimit=10
    3. syncLimit=5
    4. dataDir=/usr/local/zookeeper-cluster/data/02
    5. dataLogDir=/usr/local/zookeeper-cluster/log/02
    6. clientPort=2181
    7. server.1=host1:2287:3387
    8. server.2=host2:2287:3387
    9. server.3=host3:2287:3387

    zookeeper03 配置,与 zookeeper01,02 相比,也只有 dataLogDir、dataLogDir 和 clientPort 不同:

    1. tickTime=2000
    2. initLimit=10
    3. syncLimit=5
    4. dataDir=/usr/local/zookeeper-cluster/data/03
    5. dataLogDir=/usr/local/zookeeper-cluster/log/03
    6. clientPort=2181
    7. server.1=host1:2287:3387
    8. server.2=host2:2287:3387
    9. server.3=host3:2287:3387

    配置参数说明:

    1.3 标识节点

    分别在三个节点的数据存储目录下新建 myid 文件,并写入对应的节点标识。Zookeeper 集群通过 myid 文件识别集群节点,并通过上文配置的节点通信端口和选举端口来进行节点通信,选举出 leader 节点。

    创建存储目录:

    1. # dataDir
    2. mkdir -vp /usr/local/zookeeper-cluster/data/01
    3. # dataDir
    4. mkdir -vp /usr/local/zookeeper-cluster/data/02
    5. # dataDir
    6. mkdir -vp /usr/local/zookeeper-cluster/data/03

    创建并写入节点标识到 myid 文件:

    1. #server1
    2. echo "1" > /usr/local/zookeeper-cluster/data/01/myid
    3. #server2
    4. echo "2" > /usr/local/zookeeper-cluster/data/02/myid
    5. #server3
    6. echo "3" > /usr/local/zookeeper-cluster/data/03/myid

    1.4 启动集群

    分别启动三个节点:

    1. # 启动节点
    2. /usr/app/zookeeper-cluster/bin/zkServer.sh start

    1.5 集群验证

    使用 jps 查看进程,并且使用 zkServer.sh status 查看集群各个节点状态。如图三个节点进程均启动成功,并且两个节点为 follower 节点,一个节点为 leader 节点。

    二、Kafka集群搭建

    2.1 下载解压

    Kafka 安装包官方下载地址:http://kafka.apache.org/downloads ,本用例下载的版本为 2.2.0,下载命令:

    1. # 下载
    2. wget https://www-eu.apache.org/dist/kafka/2.2.0/kafka_2.12-2.2.0.tgz
    3. # 解压
    4. tar -xzf kafka_2.12-2.2.0.tgz

    这里解释一下 kafka 安装包的命名规则:以 kafka_2.12-2.2.0.tgz 为例,前面的 2.12 代表 Scala 的版本号(Kafka 采用 Scala 语言进行开发),后面的 2.2.0 则代表 Kafka 的版本号。

    2.2 拷贝配置文件

    进入解压目录的  config 目录下 ,拷贝三份配置文件:

    cp server.properties server.properties

    2.3 修改配置

    分别修改三份配置文件中的部分配置,如下:

    server-1:

    1. # The id of the broker. 集群中每个节点的唯一标识
    2. broker.id=0
    3. # 监听地址
    4. listeners=PLAINTEXT://hostname1:9092
    5. # 数据的存储位置
    6. log.dirs=/usr/local/kafka/logs
    7. # Zookeeper连接地址
    8. zookeeper.connect=hostname1:2181,hostname2:2181,hostname3:2181

    server-2:

    1. broker.id=1
    2. listeners=PLAINTEXT://hostname2:9094
    3. log.dirs=/usr/local/kafka/logs
    4. zookeeper.connect=hostname1:2181,hostname2:2181,hostname3:2181

    server-3:

    1. broker.id=2
    2. listeners=PLAINTEXT://hostname3:9094
    3. log.dirs=/usr/local/kafka/logs
    4. zookeeper.connect=hostname1:2181,hostname2:2181,hostname3:2181

    这里需要说明的是 log.dirs 指的是数据日志的存储位置,确切的说,就是分区数据的存储位置,而不是程序运行日志的位置。程序运行日志的位置是通过同一目录下的 log4j.properties 进行配置的。

    2.4 启动集群

    分别指定不同配置文件,启动三个 Kafka 节点。启动后可以使用 jps 查看进程,此时应该有三个 zookeeper 进程和三个 kafka 进程。

    bin/kafka-server-start.sh config/server.properties

    2.5 创建测试主题

    创建测试主题:

    1. bin/kafka-topics.sh --create --bootstrap-server kubemaster01.xltest.sz.xunlei.com:9092 \
    2. --replication-factor 3 \
    3. --partitions 1 --topic my-first-topic

    创建后可以使用以下命令查看创建的主题信息:

    bin/kafka-topics.sh --describe --bootstrap-server kubemaster01.xltest.sz.xunlei.com:9092 --topic my-first-topic

    可以看到分区 0 的有 0,1,2 三个副本,且三个副本都是可用副本,都在 ISR(in-sync Replica 同步副本) 列表中,其中 1 为leader副本,此时代表集群已经搭建成功。

    2.6 写入数据测试

    从kubemaster01写入数据:

    bin/kafka-console-producer.sh --broker-list kubemaster01.xltest.sz.xunlei.com:9092 --topic my-first-topic
    

    从kubenode01获取数据:

    bin/kafka-console-consumer.sh --bootstrap-server kubenode01.xltest.sz.xunlei.com:9092 --from-beginning --topic my-first-topic

  • 相关阅读:
    详解 Spring Boot 项目中的配置文件
    无缝集结:一键式部署前后端分离项目,快速构建强大的容器化应用
    [AI] LRTA*(K) 搜索算法
    20 | 多线程2
    mysql(十)mysql主从复制--主库切换
    ARM 汇编比较指令-条件执行指令
    【AI视野·今日Sound 声学论文速览 第二十六期】Mon, 16 Oct 2023
    SWM32系列教程4-端口映射及串口应用
    Spring源码深度解析(四):Spring框架后置处理器PostProcessor详解
    如何使用远程Linux虚拟机的图形界面
  • 原文地址:https://blog.csdn.net/Franklin7B/article/details/132715227