一、单机安装
1.1 下载
进入要下载的版本的目录,选择.tar.gz文件下载
1.2 安装
使用tar解压要安装的目录即可,以3.4.5版本为例
这里以解压到/usr/myapp,实际安装根据自己的想安装的目录修改(注意如果修改,那后边的命令和配置文件中的路径都要相应修改)
tar -zxf zookeeper-3.4.5.tar.gz -C /usr/myapp
1.3 配置
在主目录下创建data和logs两个目录用于存储数据和日志:
cd /usr/myapp/zookeeper-3.4.5
mkdir data
mkdir logs
在conf目录下新建zoo.cfg文件,写入以下内容保存:
tickTime=2000
dataDir=/usr/myapp/zookeeper-3.4.5/data
dataLogDir=/usr/myapp/zookeeper-3.4.5/logs
clientPort=2181
1.4 启动和停止
进入bin目录,启动、停止、重启分和查看当前节点状态(包括集群中是何角色)别执行:
./zkServer.sh start
./zkServer.sh stop
./zkServer.sh restart
./zkServer.sh status
正常重动步骤: 1 ./zkServer.sh start 2 ./zkServer.sh status
二、多机集群模式
多机集群模式就是在3台机子。
将通过第一大点安装的zookeeper
2.1 第1台机 zookeeper配置
zookeeper1配置文件conf/zoo.cfg修改如下:
zookeeper的data/myid配置如下:
vi myid 写入 1
2.2 第2台机zookeeper配置
zookeeper配置文件conf/zoo.cfg修改如下:
zookeeper的data/myid配置如下:
vi myid 写入 2
2.3 第3台机zookeeper配置
zookeeper配置文件conf/zoo.cfg修改如下:
zookeeper的data/myid配置如下:
vi myid 写入 3
最后使用1.4的命令把三个zookeeper都启动即可,启动顺序随意没要求。
接下来继续开放防火墙端口
[root@h1 ~]# vi /etc/sysconfig/iptables
复制22端口那一行3次,然后将端口修改为需要开放的3个,如下:
重起防火墙
三、单机集群模式
集群模式就是在不同主机上安装zookeeper然后组成集群的模式;下边以在192.168.220.128/129/130三台主机为例。
将第1.1到1.3步中安装好的zookeeper打包复制到129和130上,并都解压到同样的目录下。
3.1 conf/zoo.cfg文件修改
三个zookeeper的conf/zoo.cfg修改如下:
对于129和130,由于安装目录都是zookeeper-3.4.5所以dataDir和dataLogDir不需要改变,又由于在不同机器上所以clientPort也不需要改变
所以此时129和130的conf/zoo.cfg的内容与128一样即可。
3.2 data/myid文件修改
128 data/myid修改如下:
echo '1' > data/myid
129 data/myid修改如下:
echo '2' > data/myid
130 data/myid修改如下:
echo '3' > data/myid
最后使用1.4的命令把三个zookeeper都启动即可,启动顺序随意没要求。
四、报错及处理
应用连接zookeepr报错:Session 0x0 for server 192.168.220.128/192.168.220.128:2181,unexpected error,closing socket connection and attempting reconnect;
先看端口能否telnet通,如果通则使用./zkServer.sh status查看zk是否确实已启动,没启查看bin/zookeeper.out中的报错。
bin/zookeeper.out中报错:“zookeeper address already in use”;显然端口被占用,要么是其他进程占用了配置的端口,要么是上边配置的clientPort和server中的端口有重复。
bin/zookeeper.out中报错:Cannot open channel to 2 at election address /192.168.220.130:3888;这应该只是组成集群的130节点未启动,到130启动起来zk即会正常。
另一种安装
解压安装包
输入tar -zxvf zookeeper-3.4.6.tar.gz将其解压,如下:
创建data和logs目录
解压后进入zookeeper-3.4.6目录,创建data目录和logs目录,zookeeper默认是不带这两个目录的,需要用户自行创建并指定。
[grid@h1 zookeeper-3.4.6]$ mkdir data
[grid@h1 zookeeper-3.4.6]$ mkdir logs
创建myid文件
在dataDir=/home/grid/zookeeper-3.4.6/data下创建myid文件
编辑myid文件,并在对应的IP的机器上输入对应的编号。如在第一台zookeeper上,我们给该myid文件内容指定就是1。如果只在单点上进行安装配置,那么只有一个server,后面讲集群的时候会有多态server故会有2,3,4…等等。
[grid@h1 data]$ vi myid
1
复制修改配置文件
接着进入zookeeper-3.4.6/conf目录下,将zoo_sample.cfg文件复制一份取名zoo.cfg
[grid@h1 conf]$ cp zoo_sample.cfg zoo.cfg
注:之所以取名zoo.cfg是因为这是启动时默认约定读取的
server.1=h1:2888:3888的解释如下:
1是指一个数字,与前面创建的myid对应即可,标志这是第几台机器,h1是我配置的映射名,大家可以直接将h1改为自己的ip,如server.1=192.168.2.101:2888:3888;
Hosts映射配置:vi /etc/hosts,输入自己的ip对应写个名字即可,与windows类似,此配置步骤可以忽略,直接在zookeeper下的zoo.cfg文件写ip地址即可
2888 表示的是这个服务器与集群中的 Leader 服务器交换信息的端,2888端口简单来说就是zookeeper服务之间的通信端口;
3888端口是zookeeper与其他应用程序通信的端口
其他cfg参数说明
tickTime=2000
tickTime这个时间是作为Zookeeper服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个tickTime时间就会发送一个心跳。
initLimit=10
initLimit这个配置项是用来配置Zookeeper接受客户端(这里所说的客户端不是用户连接Zookeeper服务器的客户端,而是Zookeeper服务器集群中连接到Leader的Follower 服务器)初始化连接时最长能忍受多少个心跳时间间隔数。当已经超过10个心跳的时间(也就是tickTime)长度后Zookeeper 服务器还没有收到客户端的返回信息,那么表明这个客户端连接失败。总的时间长度就是10*2000=20 秒。
syncLimit=5
syncLimit这个配置项标识Leader与Follower之间发送消息,请求和应答时间长度,最长不能超过多少个tickTime的时间长度,总的时间长度就是5*2000=10秒。
dataDir=/home/grid/zookeeper-3.4.6/data
dataDir顾名思义就是Zookeeper保存数据的目录,默认情况下Zookeeper将写数据的日志文件也保存在这个目录里。
clientPort=2181
clientPort这个端口就是客户端(应用程序)连接Zookeeper服务器的端口,Zookeeper会监听这个端口接受客户端的访问请求
增加环境变量
修改该用户下的.bash_profile文件,此文件默认为隐藏的
[grid@h1 data]$ vi /home/grid/.bash_profile ,增加内容如下:
export ZOOKEEPER_HOME=/home/grid/zookeeper-3.4.6
export PATH=$ZOOKEEPER_HOME/bin:$PATH
使配置文件生效:
[grid@h1 data]$ source /home/grid/.bash_profile
防火墙配置
在防火墙中打开要用到的端口,一般默认是开放了22端口,所以我们才能使用远程工具使用22进行连接,现在我们去配置2181 2888 3888端口,切换到root用户执行如下命令
chkconfig iptables on设置开机启动
service iptables start 启动防火墙
我这里设置时就报错了,报错咱就得解决
解决方案:执行yum install iptables-services下载安装插件
安装完成后再次执行chkconfig iptables on,service iptables start命令
接下来继续开放防火墙端口
[root@h1 ~]# vi /etc/sysconfig/iptables
复制22端口那一行3次,然后将端口修改为需要开放的3个,如下:
重启防火墙
[root@h1 ~]# service iptables restart
开启zookeeper服务
启动并测试zookeeper(使用grid用户启动,不要使用root账户),在zookeeper目录的bin下面执行
[grid@h1 bin]$ ./zkServer.sh start
执行jps查看状态,其中QuorumPeerMain是zookeeper进程,启动正常
查看zookeeper服务输出信息,其日志信息文件在
/home/grid/zookeeper-3.4.6/bin/zookeeper.out
[grid@h1 bin]$ tail -222f zookeeper.out查看
设置服务为开机启动
配置zookeeper为grid用户开机启动,不然在生产环境会很麻烦
编辑/etc/rc.local文件,加入:
su - grid -c ‘/home/grid/zookeeper-3.4.6/bin/zkServer.sh start’
注:su – grid是指切换到grid用户,-c是指调用后面命令
好了,单机版就讲到这里,下面我们讲解集群的配置
集群模式
服务器CentOS7_64_1的ip:192.168.2.101
服务器CentOS7_64_2的ip:192.168.2.102
服务器CentOS7_64_3的ip:192.168.2.103
首先我们将另外两台也按照如上方式进行配置,首先保证每台机器自己启动zookeeper成功,配置好后我们现在是拥有3台单机的zookeeper,那么下面我们进行集群的配置
hosts配置
首先修改3台虚拟机的hosts映射配置:vi /etc/hosts,3台机器分别加上自己ip和hosts别名的映射(修改后自动生效),如下:
修改防火墙端口
接下来配置3台服务器的端口,防火墙那一块改为下面对应的端口
机器1—端口:2181,2881,3881
机器2—端口:2182,2882,3882
机器3—端口:2183,2883,3883
zookeeper配置
vi /conf/zoo.cfg,3台机器注意注意端口号参数
修改data文件夹下的myid文件的值,分别对应的值为1,2,3
启动zookeeper
我启动了第一台服务出了如下异常,于是我想应该是防火墙的哪个配置未生效
异常信息:
Cannot open channel to 2 at election address h2/192.168.2.102:3882 java.net.NoRouteToHostException: 没有到主机的路由
应该是防火墙配置改了未生效,于是重新启动了3台机器防火墙 service iptables restart,
下面是我重新启动后抛出的异常
异常信息:
Cannot open channel to 1 at election address h1/192.168.2.101:3881 java.net.ConnectException: 拒绝连接
解决异常
一开始认为是等待其他机器开启,但启动其他两台后一直出现该问题,所以花了半个小时查原因,后来检查没发现配置问题,但3台机器的hosts文件中有如下内容,决定尝试删掉后重启,果然正常启动
127.0.0.1 localhost h1 localhost4 localhost4.localdomain4
::1 localhost h1 localhost6 localhost6.localdomain6
再次重启成功
下图这里开始启动出错的原因是集群环境正等待着另外几台机器,否则一台也没办法进行选举等操作,第二台机器起来后就恢复正常了。
查看状态
接下来我们运行status命令分别查看各自的状态
启动的第一台机器:3号机-领导者
启动的第二台机器:2号机-跟随者
启动第三台机器:1号机-跟随者
高可用:一旦leader停止服务,剩下的follower会选举出leader,大家可以尝试下看看状态变化
结果
Starting zookeeper ... STARTED
去date文件目录下查看myid文件
如发现是 22 就修改成2