[18] Linux集群架构

18.1 集群介绍

根据功能划分为两大类:高可用和负载均衡

  • 介绍
1. 高可用集群通常为两台服务器,一台工作,另外一台作为冗余,当提供服务的机器宕机,冗余将接替继续提供服务

2. 实现高可用的开源软件有:heartbeat、keepalived

3.负载均衡集群,需要有一台服务器作为分发器,它负责把用户的请求分发给后端的服务器处理,在这个集群里,除了分发器外,就是给用户提供服务的服务器了,这些服务器数量至少为2

4. 实现负载均衡的开源软件有LVS、keepalived、haproxy、nginx,商业的有F5、Netscaler

18.2 keepalived介绍

使用keepalived来实现高可用集群,因为heartbeat在centos6上有一些问题,影响实验效果

  • 介绍
1. keepalived通过VRRP(Virtual Router Redundancy Protocl)来实现高可用。

2. 在这个协议里会将多台功能相同的路由器组成一个小组,这个小组里会有1个master角色和N(N>=1)个backup角色。

3. master会通过组播的形式向各个backup发送VRRP协议的数据包,当backup收不到master发来的VRRP数据包时,就会认为master宕机了。此时就需要根据各个backup的优先级来决定谁成为新的mater。

4. Keepalived要有三个模块,分别是core、check和vrrp。其中core模块为keepalived的核心,负责主进程的启动、维护以及全局配置文件的加载和解析,check模块负责健康检查,vrrp模块是来实现VRRP协议的。

18.3 用keepalived配置高可用集群

  • 实验准备
1. 准备两台机器11和22,11作为master,22作为backup

2. 两台机器都执行yum install -y keepalived

3. 两台机器都安装nginx,其中11上已经编译安装过nginx,22上需要yum安装nginx: yum install -y nginx
  • 配置msater keepallived配置文件
1. 清空初始的配置文件
[root@localhost ~]# > /etc/keepalived/keepalived.conf

2. 粘贴以下配置文件
[root@localhost ~]# vim /etc/keepalived/keepalived.conf 

global_defs {
   notification_email {
     aming@aminglinux.com  #给邮箱发送报警邮件
   }
   notification_email_from root@aminglinux.com  #从哪一个邮箱发邮件
   smtp_server 127.0.0.1
   smtp_connect_timeout 30
   router_id LVS_DEVEL
}
vrrp_script chk_nginx {
    script "/usr/local/sbin/check_ng.sh"   #使用这个脚本检测服务是否正常,需要另外编写指定
    interval 3  #检测时间3s一次
}
vrrp_instance VI_1 {
    state MASTER  #定义角色,master或backup
    interface ens33  #通过哪一个网卡进行发送vrrp广播
    virtual_router_id 51  #定义路由器ID,master和backup保持一致
    priority 100  # 定义权重,主和从不一致
    advert_int 1
    authentication {
        auth_type PASS  #定义密码认证
        auth_pass 000000  #定义密码字符串
    }
    virtual_ipaddress {
        192.168.188.100  # master和backup共有ip,域名解析用
    }
    track_script {
        chk_nginx
    }
}
  • 定义master监控脚本
[root@localhost ~]# vim /usr/local/sbin/check_ng.sh

#!/bin/bash
#时间变量,用于记录日志
d=`date --date today +%Y%m%d_%H:%M:%S`
#计算nginx进程数量
n=`ps -C nginx --no-heading|wc -l`
#如果进程为0,则启动nginx,并且再次检测nginx进程数量,
#如果还为0,说明nginx无法启动,此时需要关闭keepalived
if [ $n -eq "0" ]; then
        /etc/init.d/nginx start
        n2=`ps -C nginx --no-heading|wc -l`
        if [ $n2 -eq "0"  ]; then
                echo "$d nginx down,keepalived will stop" >> /var/log/check_ng.log
                systemctl stop keepalived
        fi
fi

[root@localhost ~]# chmod 755 /usr/local/sbin/check_ng.sh
[root@localhost ~]# ip add  查看vip
  • 启动keepalived服务
[root@localhost ~]# systemctl start keepalived
[root@localhost ~]# chkconfig keepalived on
  • 配置backup keepallived配置文件
[root@Centos 7 ~]# > /etc/keepalived/keepalived.conf


global_defs {
   notification_email {
     aming@aminglinux.com
   }
   notification_email_from root@aminglinux.com
   smtp_server 127.0.0.1
   smtp_connect_timeout 30
   router_id LVS_DEVEL
}
vrrp_script chk_nginx {
    script "/usr/local/sbin/check_ng.sh"
    interval 3
}
vrrp_instance VI_1 {
    state BACKUP
    interface ens33
    virtual_router_id 51
    priority 90
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 000000
    }
    virtual_ipaddress {
        192.168.1.100
    }
    track_script {
        chk_nginx
    }
}
  • 配置backup监控脚本
#时间变量,用于记录日志
d=`date --date today +%Y%m%d_%H:%M:%S`
#计算nginx进程数量
n=`ps -C nginx --no-heading|wc -l`
#如果进程为0,则启动nginx,并且再次检测nginx进程数量,
#如果还为0,说明nginx无法启动,此时需要关闭keepalived
if [ $n -eq "0" ]; then
        systemctl start nginx  ##根据实际情况写启动命令
        n2=`ps -C nginx --no-heading|wc -l`
        if [ $n2 -eq "0"  ]; then
                echo "$d nginx down,keepalived will stop" >> /var/log/check_ng.log
                systemctl stop keepalived
        fi
fi

[root@Centos 7 ~]# chmod 755 /usr/local/sbin/check_ng.sh
  • 启动keepalived服务
[root@Centos 7 ~]# systemctl start keepalived
[root@Centos 7 ~]# chkconfig keepalived on
  • 测试高可用
1. 确定两台机器nginx差异
2. 关闭master、backup防火墙和selinux
3. 关闭master keepalived服务,查看master vip:ip add是否为192.168.1.100。否为正常。
4. 然后再查看backup vip:vip:ip add是否为192.168.1.100。是为正常
  • 扩展
  1. heartbeat和keepalived比较
  2. DRBD工作原理和配置
  3. mysql+keepalived

18.4 负载均衡集群介绍

主流开源软件LVS、keepalived、haproxy、nginx等

1. 其中LVS属于4层(网络OSI 7层模型),nginx属于7层,haproxy既可以认为是4层,也可以当做7层使用

2. keepalived的负载均衡功能其实就是内置lvs

3. lvs这种4层的负载均衡是可以分发除80外的其他端口通信的,比如MySQL,而nginx仅仅支持http、https、mail、haproxy也支持MySQL

4. 相比较来说,LVS这种4层的更稳定,能承受更多的请求,而nginx这种7层的更加灵活,能实现更多的个性化需求,比如针对访问的目录做后端的内容分发。

18.5 LVS介绍

LVS最新版本基于Linux内核2.6

1. LVS有三种常见的模式:NAT、DR、IP Tunnel
2. LVS架构中有一个核心角色叫做分发器(Load balance),它用来分发用户的请求,还有诸多处理用户请求的服务器(Real Server,简称rs)
  • NAT模式
1. 这种模式借助iptables的nat表来实现
2. 用户的请求到分发器后,通过预设的iptables规则,把请求的数据包转发到后端的rs上去
3. rs需要设定网关为分发器的内网ip
4. 用户请求的数据包和返回给用户的数据包全部经过分发器,所以分发器成为瓶颈
5. 在nat模式中,只需要分发器有公网ip即可,所以比较节省公网ip资源
  • IP Tunnel模式
1. 需要有一个公共的IP配置在分发器和所有rs上,我们把它叫做vip
2. 客户端请求的目标IP为vip,分发器接收到请求数据包后,会对数据包做一个加工,会把目标IP改为rs的IP,这样数据包就到了rs上
3. rs接收数据包后,会还原原始数据包,这样目标IP为vip,因为所有rs上配置了这个vip,所以它会认为是它自己
  • DR模式
1. 这种模式,也需要有一个公共的IP配置在分发器和所有rs上,也就是vip
2. 和IP Tunnel不同的是,它会把数据包的MAC地址修改为rs的MAC地址
3. rs接收数据包后,会还原原始数据包,这样目标IP为vip,因为所有rs上配置了这个vip,所以它会认为是它自己

18.6 LVS调度算法

1. 轮询 Round-Robin  rr
2. 加权轮询 Weight Round-Robin wrr
3. 最小连接 Least-Connection lc
4. 加权最小连接 Weight Least-Connection wlc
5. 基于局部性的最小连接 Locality-Based Least Connections lblc
6. 带复制的基于局部性最小连接 Locality-Based Least Connections with Replication  lblcr
7. 目标地址散列调度 Destination Hashing dh
8. 源地址散列调度 Source Hashing  sh

18.7 NAT 模式搭建

  • 准备机器
三台机器,角色分别为

1. 分发器(linux01):内网192.168.1.11,外网:192.168.2.11(vm设置仅主机模式)
2. rs1(linux02):192.168.1.22 设置网关:192.168.1.11
3. rs2(linux03):192.168.1.55 设置网关:192.168.1.11

三台机器都执行命令
1. systemctl stop firewalld; systemctl disable firewalld
2.  systemctl start  iptables-services; iptables -F; service iptables save 
3. 关闭selinux
  • 搭建NAT模式
1. 分发器dir安装ipvsadm
[root@linux01 ~]# yum install -y ipvsadm

2. 分发器编辑脚本
[root@linux01 ~]# vim /usr/local/sbin/lvs_nat.sh

#! /bin/bash
# director 服务器上开启路由转发功能
echo 1 > /proc/sys/net/ipv4/ip_forward
# 关闭icmp的重定向
echo 0 > /proc/sys/net/ipv4/conf/all/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/default/send_redirects
# 注意区分网卡名字,rs两个网卡分别为ens33(内网)和ens39(外网)
echo 0 > /proc/sys/net/ipv4/conf/ens33/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/ens39/send_redirects
# director 设置nat防火墙
iptables -t nat -F
iptables -t nat -X
iptables -t nat -A POSTROUTING -s 192.168.1.0/24  -j MASQUERADE
# director设置ipvsadm
IPVSADM='/usr/sbin/ipvsadm'
$IPVSADM -C
$IPVSADM -A -t 192.168.2.11:80 -s wlc -p 3
$IPVSADM -a -t 192.168.2.11:80 -r 192.168.1.22:80 -m -w 1
$IPVSADM -a -t 192.168.2.11:80 -r 192.168.1.55:80 -m -w 1

[root@linux01 ~]# sh /usr/local/sbin/lvs_nat.sh
  • NAT测试
两台rs上都安装nginx
 设置两台rs的主页,做一个区分
 浏览器里访问192.168.2.11,多访问几次看结果差异,有差异表示正常
  • 扩展
  1. lvs三种模式详解
  2. lvs几种算法
  3. 关于arp_ignore和 arp_announce
  4. lvs原理相关的

18.8 LVS DR模式搭建

  • 准备机器
三台机器,角色分别为

1. 分发器(linux01):内网192.168.1.11
2. rs1(linux02):192.168.1.22 设置网关:192.168.1.1
3. rs2(linux03):192.168.1.55 设置网关:192.168.1.1
4. VIP 192.168.1.66

三台机器都执行命令
1. systemctl stop firewalld; systemctl disable firewalld
2.  systemctl start  iptables-services; iptables -F; service iptables save 
3. 关闭selinux

  • dir编辑脚本

vim /usr/local/sbin/lvs_dr.sh

#! /bin/bash
echo 1 > /proc/sys/net/ipv4/ip_forward
ipv=/usr/sbin/ipvsadm
vip=192.168.1.66
rs1=192.168.1.22
rs2=192.168.1.55
#注意这里的网卡名字
ifdown ens33
ifup ens33
ifconfig ens33:2 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip dev ens33:2
$ipv -C
$ipv -A -t $vip:80 -s wrr
$ipv -a -t $vip:80 -r $rs1:80 -g -w 1
$ipv -a -t $vip:80 -r $rs2:80 -g -w 1

  • 两台rs编辑脚本

vim /usr/local/sbin/lvs_rs.sh

#/bin/bash
vip=192.168.1.66
#把vip绑定在lo上,是为了实现rs直接把结果返回给客户端
ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip lo:0
#以下操作为更改arp内核参数,目的是为了让rs顺利发送mac地址给客户端
#参考文档www.cnblogs.com/lgfeng/archive/2012/10/16/2726308.html
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
  • 测试
nginx主页区分两台负载均衡测试机
浏览器访问192.168.1.66
不停的刷新页面,查看主页变化

18.9 keepalived + LVS DR

LVS中为什么要用keeplived作为负载均衡分发器,其中一个很重要的原因,lvs中使用的ipvsadm分发器不能实现高可用。

  1. 完整架构需要两台服务器(角色为dir)分别安装keepalived软件,目的是实现高可用,但keepalived本身也有负载均衡的功能,所以本次实验可以只安装一台keepalived
  2. keepalived内置了ipvsadm的功能,所以不需要再安装ipvsadm包,也不用编写和执行那个lvs_dir的脚本
  • 准备机器
三台机器分别为:
 dir(安装keepalived)192.168.1.11
 rs1 1192.168.1.22
 rs2 192.168.1.55
 vip 192.168.1.66
  • 编辑dir上keepalived配置文件
[root@linux01 ~]# vim /etc/keepalived/keepalived.conf 
vrrp_instance VI_1 {
    #备用服务器上为 BACKUP
    state MASTER
    #绑定vip的网卡为ens33,你的网卡的可能不一样,这里需要你改一下
    interface ens33
    virtual_router_id 51
    #备用服务器上为90
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 000000
    }
    virtual_ipaddress {
        192.168.1.66
    }
}
virtual_server 192.168.1.66 80 {
    #(每隔10秒查询realserver状态)
    delay_loop 10
    #(lvs 算法)
    lb_algo wlc
    #(DR模式)
    lb_kind DR
    #(同一IP的连接60秒内被分配到同一台realserver)
    persistence_timeout 60
    #(用TCP协议检查realserver状态)
    protocol TCP
    real_server 192.168.1.22 80 {
        #(权重)
        weight 100
        TCP_CHECK {
        #(10秒无响应超时)
        connect_timeout 10
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
    }
    real_server 192.168.1.55 80 {
        weight 100
        TCP_CHECK {
        connect_timeout 10
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
     }
}
  1. 执行ipvsadm -C 把之前的ipvsadm规则清空掉
  2. systemctl restart network 可以把之前的vip清空掉
  3. 两台rs上,依然要执行/usr/local/sbin/lvs_rs.sh脚本
  4. keepalived有一个比较好的功能,可以在一台rs宕机时,不再把请求转发过去
  5. 测试
  • 扩展
  1. haproxy+keepalived
  2. nginx、lvs、haproxy比较
  3. keepalived中自定义脚本 vrrp_script
  4. lvs dr模式只使用一个公网ip的实现方法