Zookeeper集群搭建

Zookeeper集群搭建

本文主要介绍Zookeeper集群搭建以及通过模拟故障演示选举机制。

1.1 搭建要求

真实的集群是需要部署在不同的服务器上的,但是在我们测试时同时启动很多个虚拟机内存会吃不消,所以我们通常会搭建伪集群,也就是把所有的服务都搭建在一台虚拟机上,用端口进行区分。

我们这里要求搭建一个三个节点的Zookeeper集群(伪集群)。

1.2 准备工作

重新部署一台虚拟机作为我们搭建集群的测试服务器。

  1. 安装JDK 【此步骤省略】。

  2. Zookeeper压缩包上传到服务器。

  3. 将Zookeeper解压 ,建立/usr/zookeeper-cluster目录,将解压后的Zookeeper分别复制到以下三个目录:

    • /usr/zookeeper-cluster/zookeeper-1

    • /usr/zookeeper-cluster/zookeeper-2

    • /usr/zookeeper-cluster/zookeeper-3

      1
      2
      3
      4
      5
      6
      # 创建集群目录
      mkdir /usr/zookeeper-cluster
      # 复制
      cp -r apache-zookeeper-3.5.6-bin /usr/zookeeper-cluster/zookeeper-1
      cp -r apache-zookeeper-3.5.6-bin /usr/zookeeper-cluster/zookeeper-2
      cp -r apache-zookeeper-3.5.6-bin /usr/zookeeper-cluster/zookeeper-3
  4. 创建data目录 ,并且将 conf下zoo_sample.cfg 文件改名为 zoo.cfg

    1
    2
    3
    4
    5
    6
    7
    8
    9
    # 创建data目录
    mkdir /usr/zookeeper-cluster/zookeeper-1/data
    mkdir /usr/zookeeper-cluster/zookeeper-2/data
    mkdir /usr/zookeeper-cluster/zookeeper-3/data

    # 文件改名为 zoo.cfg
    mv /usr/zookeeper-cluster/zookeeper-1/conf/zoo_sample.cfg /usr/zookeeper-cluster/zookeeper-1/conf/zoo.cfg
    mv /usr/zookeeper-cluster/zookeeper-2/conf/zoo_sample.cfg /usr/zookeeper-cluster/zookeeper-2/conf/zoo.cfg
    mv /usr/zookeeper-cluster/zookeeper-3/conf/zoo_sample.cfg /usr/zookeeper-cluster/zookeeper-3/conf/zoo.cfg
  5. 配置每一个Zookeeper 的dataDir 和 clientPort 分别为2181、2182 、2183

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    # 分别修改配置文件
    vim /usr/zookeeper-cluster/zookeeper-1/conf/zoo.cfg
    # clientPort=2181
    # dataDir=/usr/zookeeper-cluster/zookeeper-1/data

    vim /usr/zookeeper-cluster/zookeeper-2/conf/zoo.cfg
    # clientPort=2182
    # dataDir=/usr/zookeeper-cluster/zookeeper-2/data

    vim /usr/zookeeper-cluster/zookeeper-3/conf/zoo.cfg
    # clientPort=2183
    # dataDir=/usr/zookeeper-cluster/zookeeper-3/data

1.3 配置集群

  1. 在每个zookeeper的 data 目录下创建一个 myid 文件,内容分别是1、2、3 。这个文件就是记录每个服务器的ID。

    1
    2
    3
    4
    # 新建文件并追加内容到文件中
    echo 1 >/usr/zookeeper-cluster/zookeeper-1/data/myid
    echo 2 >/usr/zookeeper-cluster/zookeeper-2/data/myid
    echo 3 >/usr/zookeeper-cluster/zookeeper-3/data/myid
  2. 每一个zookeeper 的 zoo.cfg配置集群服务器IP列表。

    集群服务器IP列表如下

    1
    2
    3
    4
    5
    6
    7
    8
    vim /usr/zookeeper-cluster/zookeeper-1/conf/zoo.cfg
    vim /usr/zookeeper-cluster/zookeeper-2/conf/zoo.cfg
    vim /usr/zookeeper-cluster/zookeeper-3/conf/zoo.cfg

    # 集群配置
    server.1=192.168.18.123:2881:3881
    server.2=192.168.18.123:2882:3882
    server.3=192.168.18.123:2883:3883

    解释:server.服务器ID=服务器IP地址:服务器之间通信端口:服务器之间投票选举端口

1.4 启动集群

启动集群就是分别启动每个实例

1
2
3
4
# 启动服务
/usr/zookeeper-cluster/zookeeper-1/bin/zkServer.sh start
/usr/zookeeper-cluster/zookeeper-2/bin/zkServer.sh start
/usr/zookeeper-cluster/zookeeper-3/bin/zkServer.sh start

启动3个服务

启动后我们查询一下每个实例的运行状态

1
2
3
4
# 查看服务状态
/usr/zookeeper-cluster/zookeeper-1/bin/zkServer.sh status
/usr/zookeeper-cluster/zookeeper-2/bin/zkServer.sh status
/usr/zookeeper-cluster/zookeeper-3/bin/zkServer.sh status

需要注意的是,如果配置了集群,当我们只有一个zk-server启动的时候,它的状态是不可用的。

比如,我们这边只启动了zk-server-1,查看状态:

集群只启动一台server

当我们启动第二台zk-server的时候,集群状态可用,并且2号server被选举为leader:

第二台server启动后被选举为leader

启动3号server后,原来的2号已经是leader,不会再进行选举,3号server启动为follower:

3号server启动为follower

1.5 模拟集群异常

(1)首先我们先测试如果是从服务器挂掉,会怎么样?

把3号服务器停掉,观察1号和2号,发现状态并没有变化。

1
2
3
4
/usr/zookeeper-cluster/zookeeper-3/bin/zkServer.sh stop

/usr/zookeeper-cluster/zookeeper-1/bin/zkServer.sh status
/usr/zookeeper-cluster/zookeeper-2/bin/zkServer.sh status

image-20230316152449969

由此得出结论,3个节点的集群,从服务器挂掉,集群正常

(2)我们再把1号服务器(从服务器)也停掉,查看2号(主服务器)的状态,发现已经停止运行了。

1
2
3
/usr/zookeeper-cluster/zookeeper-1/bin/zkServer.sh stop

/usr/zookeeper-cluster/zookeeper-2/bin/zkServer.sh status

由此得出结论,3个节点的集群,2个从服务器都挂掉,主服务器也无法运行。因为可运行的机器没有超过集群总数量的半数。

(3)我们再次把1号服务器启动起来,发现2号服务器又开始正常工作了。而且依然是领导者。

1
2
3
/usr/zookeeper-cluster/zookeeper-1/bin/zkServer.sh start

/usr/zookeeper-cluster/zookeeper-2/bin/zkServer.sh status

(4)我们把3号服务器也启动起来,把2号服务器停掉,停掉后观察1号和3号的状态。

1
2
3
4
5
/usr/zookeeper-cluster/zookeeper-3/bin/zkServer.sh start
/usr/zookeeper-cluster/zookeeper-2/bin/zkServer.sh stop

/usr/zookeeper-cluster/zookeeper-1/bin/zkServer.sh status
/usr/zookeeper-cluster/zookeeper-3/bin/zkServer.sh status

发现新的leader产生了~

由此我们得出结论,当集群中的主服务器挂了,集群中的其他服务器会自动进行选举状态,然后产生新得leader

(5)我们再次测试,当我们把2号服务器重新启动起来启动后,会发生什么?2号服务器会再次成为新的领导吗?我们看结果

1
2
3
4
/usr/zookeeper-cluster/zookeeper-2/bin/zkServer.sh start

/usr/zookeeper-cluster/zookeeper-2/bin/zkServer.sh status
/usr/zookeeper-cluster/zookeeper-3/bin/zkServer.sh status

我们会发现,2号服务器启动后依然是跟随者(从服务器),3号服务器依然是领导者(主服务器),没有撼动3号服务器的领导地位。

由此我们得出结论,当领导者产生后,再次有新服务器加入集群,不会影响到现任领导者。


Zookeeper集群搭建
https://binbiubiu.github.io/20230316124100/
作者
Binbiubiu
发布于
2023年3月16日