部署LVS—DR群集
文章目录
- 部署LVS—DR群集
- 一、LVS-DR模式
- 二、DR模式特点
- 1.LVS-DR的优缺点
- 三、LVS-DR模式中的ARP解析问题
- 1.DR模式的问题
- 2.RS设置lo:0而不设置ens33:0的原因
- 四、DR模式LVS负载均衡群集部署示例
- 1.环境准备
- ##### 2.1配置负载调度器(192.168.50.128)
- 2.2配置虚拟IP地址(VIP:192.168.58.188)
- 2.3调整proc响应参数
- 2.4配置负载分配策略
- 3.部署共享存储NFS服务器(192.168.50.188)
- 3.1关闭防火墙,安装NFS
- 2.创建一个站点目录
- 4.部署节点服务器(192.168.50.158、192.168.50.168)
- 4.1关闭防火墙,安装httpd服务
- 4.2创建一个站点文件,并挂载共享目录
- 4.3添加回环网卡
- 4.4调整proc响应参数
- 5.客户机测试
- 五、LVS-DR问题总结
- 1.LVS/DR如何处理请求报文的,会修改IP包内容吗?
- 2.RealServer为什么要在lo接口上配置VIP?在出口网卡上配置VIP可以吗?
- 3.RealServer为什么要抑制arp帧?
- 4.LVS/DR load balancer(director)与RS为什么要在同一网段中
- 5.为什么director上eth0接口除了VIP另外还要配一个ip(即DIP)?
- 6.director的vip的netmask一定要是255.255.255.255吗?
- 7.RS设置lo:0而不设置ens33:0的原因
- 总结
引言:本篇文章主要讲解了LVS群集中DR模式的搭建及其原理;director分配请求到不同的real server,real server处理请求后直接回应给用户,这样director负载均衡器仅处理客户机与服务器的一半连接。避免了新的性能瓶颈,同样增加了系统的可伸缩性。Direct Routing由于采用物理层(修改MAC地址)技术,因此所有服务器都必须在一个网段中。
一、LVS-DR模式
Director Server作为群集的访问入口,但不作为网关使用,后端服务器池中的Real Server与Director Server在同一个物理网络中,发送给客户机的数据包不需要经过Director Server。为了响应对整个群集的访问,DS(前端负载均衡节点服务器)与RS(后端真实服务器)都需要配置有VIP地址。
每个Real Server上都有两个IP:VIP(负载均衡对外提供访问的 IP 地址)和RIP(负载均衡后端的真实服务器 IP 地址),但是VIP是隐藏的,就是不能提供解析等功能,只是用来做请求回复的源IP的,Director上只需要一个网卡,然后利用别名来配置两个IP:VIP和DIP(负载均衡与后端服务器通信的 IP 地址),在DIR接收到客户端的请求后,DIR根据负载算法选择一台rs sever的网卡mac作为客户端请求包中的目标mac,通过arp转交给后端RS serve处理,后端再通过自己的路由网关回复给客户端
数据包流向分析:
①用户发送请求到Director Server,请求的数据报文(源IP是CIP,目标IP是VIP)到达内核空间
②由于DS和RS在同一个网络中,所以是通过二层数据链路层来传输
③内核空间判断数据包的目标IP是本机IP,此时IPVS比对数据包请求的服务是否为集群服务,若是,重新封装数据包,修改源MAC地址为DIP的MAC地址,目标MAC地址为RIP的MAC地址,源IP地址与目标IP地址没有改变,然后将数据包发送给Real Server
④RS发现请求报文的MAC地址是自己的MAC地址,就接收此报文,重新封装报文(源IP地址为VIP,目标IP为CIP),将响应报文通过lo接口传送给ens33网卡然后向外发出
二、DR模式特点
- Director Server 和 Real Server 必须在同一个物理网络中
- Real Server可以使用私有地址,也可以使用公网地址,如果使用公网地址,可以通过互联网对RIP进行直接访问
- Director Server作为群集的访问入口,但不作为网关使用
- 所有的请求报文经由Director Server,但恢复响应报文不能经过Director Server
- Real Server的网关不允许指向Director Server IP,即Real Server发送的数据包不允许经过Director Server
- Real Server上的lo接口配置VIP的IP地址
1.LVS-DR的优缺点
**优点:**负载均衡器只负载将请求包分发给物理服务器,而物理服务器将应答包直接发给用户,所以负载均衡器能处理很巨大的请求量,这种方式,一台负载均衡能为超过100台的物理服务器服务,负载均衡器不再是系统的瓶颈,使用VS-DR方式,如果你的负载均衡器拥有100M的全双工网卡的话,就能使整个Virtual Server能达到1G的吞吐量,甚至更高;
**缺点:**这种方式需要所有的DIR和RIP都在同一广播域,不支持异地容灾
三、LVS-DR模式中的ARP解析问题
1.DR模式的问题
- 在LVS-DR负载均衡集群中,负载均衡与节点服务器都要配置相同的VIP地址
- 在局域网中具有相同的IP地址,势必会造成各服务器ARP通信的紊乱
- 当ARP广播发送到LVS-DR集群时,因为负载均衡器和节点服务器都是连接到相同网络上,它们都会接收到ARP广播,只有前端的负载均衡器进行响应,其他节点服务器不应该响应ARP广播
- 对节点服务器进行处理,使其不响应针对VIP的ARP请求
- 使用虚拟接口lo:0承载VIP地址,
- 设置内核参数arp_ignore=1:系统只响应目的IP为本地IP的ARP请求
- RealServer返回报文(源IP是VIP)经路由器转发,重新封装报文时,需要先获取路由器的MAC地址
- 发送ARP请求时,Linux默认使用IP包的源IP地址(即VIP)作为ARP请求包中的源IP地址,而不使用发送接口的IP地址,如ens33
- 路由器收到ARP请求后,将更新ARP表项
- 原有的VIP对应Director的MAC地址会被更新为VIP对应的RealServer的MAV地址
- 路由器根据ARP表项,会将新来的请求报文转发给RealServer,导致Director的VIP失效
解决方法:
①.arp ignore=1:防止网关路由发送ARP广播时调度器和节点服务器都进行响应,导致ARP缓存表混乱,不对非本地物理网卡的ARP请求进行响应,因为VIP是承载lo:0
②.arp_announce=2:系统不使用响应数据的源IP地址(VIP)来作为本机进行ARP请求报文的源ip地址,而使用发送报文的物理网卡IP地址作为ARP请求报文的源地址,这样可以防止网关路由器接收到的源IP地址为VIP的ARP请求报文后的又更新ARP缓存表,导致外网在发送请求时,数据包到达不了调度器
解决ARP两个问题的设置方法
修改 /etc/sysctl.conf 文件
net.ipv4.conf.lo.arp_ignore=1
net.ipv4.conf.lo.arp_announce=2
net.ipv4.conf.all.arp_ignore=1
net.ipv4.conf.all.arp_announce=2
2.RS设置lo:0而不设置ens33:0的原因
因为"负载调度机"转发时并不会改写数据包的目的IP,所以"节点服务器"收到的数据包的目的IP仍是"负载调度器"的虚拟服务器IP,为了保证"节点服务器"能够正确处理该数据包,而不是丢弃,必须在"节点服务器"的换回网卡上绑定"负载调度器"的虚拟服务IP,这样"节点服务器"会认为这个虚拟服务IP是自己的IP,自己是能够处理这个数据包,否则"节点服务器"会直接丢弃该数据包!
"节点服务器"上的业务进程必须监听在环回网卡的虚拟服务IP上,且端口必须和"负载调度机"上的虚拟服务端口一致,因为"负载调度机"不会改写数据包的目的端口,所以"节点服务器"服务的监听端口必须和虚拟服务端口一直,否则"节点服务器"会直接拒绝该数据包
“节点服务器"处理完请求后,响应直接会给客户端,不再经过"负载调度机”,因为"节点服务器"收到的请求数据包的源IP是客户端的IP,所以理所当然"节点服务器"的响应会直接回给客户端,而不会再经过"负载调度机",这时要求"节点服务器"和客户端之间的网络是可达的
"负载调度机"和"节点服务器"须位于同一个子网,因为"负载调度机"在转发过程中需要改写数据包的MAC为"节点服务器"的MAC地址,所以要能够查询到"节点服务器"的MAC,而要获取到"节点服务器"的MAC,则需要保证二者位于一个子网,否则"负载调度机"只能获取到”节点服务器“网关的MAC地址
四、DR模式LVS负载均衡群集部署示例
1.环境准备
DR 服务器:192.168.50.128
web 服务器1:192.168.50.158
web 服务器2:192.168.50.168
vip(虚拟回环):192.168.50.188
NFS服务器:192.168.50.198
客户端:192.168.50.100
##### 2.1配置负载调度器(192.168.50.128)
关闭防火墙、安装ipvsadm工具
systmctl stop firewalld.service
setenforce 0
yum -y install ipvsadm
2.2配置虚拟IP地址(VIP:192.168.58.188)
cd /etc/sysconfig/network-scripts/
cp ifcfg-ens33 ifcfg-ens33:0
vim ifcfg-ens33:0
vim ifcfg-ens33:0
DEVICE=ens33:0
ONBOOT=yes
IPADDR=192.168.50.188
NETMASK=255.255.255.255
ifup ens33:0
ifconfig ens33:0
route add -host 192.168.50.188 dev ens33:0
或者
ifconfig ens33:0 192.168.223.200 netmask 255.255.255.255 (临时)
2.3调整proc响应参数
对于 DR 群集模式来说,由于 LVS 负载调度器和各节点需要共用 VIP 地址,应该关闭 Linux 内核的重定向参数响应服务器不是一台路由器,那么它不会发送重定向,所以可以关闭该功能
调整 proc 响应参数
#由于 LVS 负载调度器和各节点需要共用 VIP 地址,需要关闭 icmp 的重定向,不充当路由器。
vim /etc/sysctl.conf
net.ipv4.ip_forward = 0
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
sysctl -p 读取文件配置
2.4配置负载分配策略
modprobe ip_vs 加载模块
cat /proc/net/ip_vs 查看版本
配置负载分配策略,并启动服务
ipvsadm-save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm.service
清空ipvsadm,重新配置策略
ipvsadm -C
ipvsadm -A -t 192.168.50.188:80 -s rr
ipvsadm -a -t 192.168.50.188:80 -r 192.168.50.158:80 -g
ipvsadm -a -t 192.168.50.188:80 -r 192.168.50.168:80 -g
ipvsadm
ipvsadm -ln 查看节点状态,Route代表 DR模式
3.部署共享存储NFS服务器(192.168.50.188)
3.1关闭防火墙,安装NFS
systemctl stop firwalld.service
setenforce 0
yum -y install nfs-utils rpcbind
2.创建一个站点目录
cd /opt/
mkdir boss
mkdir zxc
chmod 777 /opt/boss/
chmod 777 /opt/zxc/
vim /etc/exports
/usr/share *(ro,sync)
/opt/boss 192.168.50.0/24(rw,sync)
/opt/zxc 192.168.50.0/24(rw,sync)
4.部署节点服务器(192.168.50.158、192.168.50.168)
web1和web2配置方法相同
4.1关闭防火墙,安装httpd服务
systemctl stop firewalld.service
setenforce 0
yum install httpd -y
systemctl start httpd
4.2创建一个站点文件,并挂载共享目录
mount.nfs 192.168.50.198:/opt/liy /var/www/html
echo 'this is boss' > /var/www/html/index.html
showmount -e 192.168.50.198
4.3添加回环网卡
cd /etc/sysconfig/network-scripts/
cp ifcfg-lo ifcfg-lo:0
vim ifcfg-lo:0
DEVICE=lo:0
ONBOOT=yes
IPADDR=192.168.50.188
NETMASK=255.255.255.255 #注意:子网掩码必须全为 1
ifup lo:0
ifconfig lo:0
route add -host 192.168.50.188 dev lo:0 #添加VIP本地访问路由,将访问VIP的数据限制在本地,以避免通信紊乱
vim /etc/rc.local
/sbin/route add -host 192.168.50.188 dev lo:0
chmod +x /etc/rc.d/rc.local
4.4调整proc响应参数
vim /etc/sysctl.conf
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
net.ipv4.conf.default.arp_ignore = 1
net.ipv4.conf.default.arp_announce = 2
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
sysctl -p
5.客户机测试
在客户端使用浏览器访问192.168.50.150;过一会刷新一下
五、LVS-DR问题总结
1.LVS/DR如何处理请求报文的,会修改IP包内容吗?
vs/dr本身不会关系IP层以上的信息,即使是端口号也是tcp/ip协议栈瞿判断是否正确,vs/dr本身主要做这么几个是
- 接收client的请求,根据你设定的负载均衡算法选取一台realserver的ip;
- 以选取的这个ip对应的mac地址作为目标mac,然后重新将IP包封装成帧转发给这台RS;
- 在hash table中记录连接信息
vs/dr做的事情很少,也很简单,所以它的效率很高,不必硬件负载均衡设备差多少,数据包、数据帧的大致流向是这样的:client–>VS–>RS–>client
2.RealServer为什么要在lo接口上配置VIP?在出口网卡上配置VIP可以吗?
既然要让RS能够处理目标地址为vip的IP包,首先必须要让RS能接收到这个包,在lo上配置vip能够完成接收包并将结果返回client,不可以将VIP设置在出口网卡上,否则会响应客户端的arp request,造成client/gateway arp table紊乱,以至于整个load balance都不能正常工作
3.RealServer为什么要抑制arp帧?
我们指定抑制arp帧需要在server上执行以下命令。如下
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
因为arp对逻辑口没有意义,实际上起作用的只有以下两条:
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
即对所有的物理网卡设置arp仰制。对仰制所有的物理网卡设置arp仰制是为了让CIP发送的请求顺利转交给DIR以及防止整个LVS环境arp表混乱,不然容易导致整个lvs不能工作。
4.LVS/DR load balancer(director)与RS为什么要在同一网段中
lvs/dr它是在数据链路层来实现的,即RIP必须能够接受到DIR的arp请求,如果不在同一网段则会隔离arp,这样arp请求就不能转发到指定的RIP上,所以director必须和RS在同一网段里面。
5.为什么director上eth0接口除了VIP另外还要配一个ip(即DIP)?
如果是用了keepalived等工具做HA或者Load Balance,则在健康检查时需要用到DIP。 没有健康检查机制的HA或者Load Balance则没有存在的实际意义。
6.director的vip的netmask一定要是255.255.255.255吗?
lvs/dr里,director的vip的netmask 没必要设置为255.255.255.255,director的vip本来就是要像正常的ip地址一样对外通告的,不要搞得这么特殊。
7.RS设置lo:0而不设置ens33:0的原因
因为“负载调度机”转发时并不会改写数据包的目的IP,所以“节点服务器”收到的数据包的目的IP仍是“负载调度器”的虚拟服务IP。为了保证“节点服务器”能够正确处理该数据包,而不是丢弃,必须在“节点服务器”的环回网卡上绑定“负载调度器”的虚拟服务IP。这样“节点服务器”会认为这个虚拟服务IP是自己的IP,自己是能够处理这个数据包的。否则“节点服务器”会直接丢弃该数据包!
“节点服务器”上的业务进程必须监听在环回网卡的虚拟服务IP上,且端口必须和“负载调度机”上的虚拟服务端口一致。因为“负载调度机”不会改写数据包的目的端口,所以“节点服务器”服务的监听端口必须和虚拟服务端口一致,否则“节点服务器”会直接拒绝该数据包。
“节点服务器”处理完请求后,响应直接回给客户端,不再经过“负载调度机”。因为“节点服务器”收到的请求数据包的源IP是客户端的IP,所以理所当然“节点服务器”的响应会直接回给客户端,而不会再经过“负载调度机”。这时候要求“节点服务器”和客户端之间的网络是可达的。
“负载调度机”和“节点服务器”须位于同一个子网。因为“负载调度机”在转发过程中需要改写数据包的MAC为“节点服务器”的MAC地址,所以要能够查询到“节点服务器”的MAC。而要获取到“节点服务器”的MAC,则需要保证二者位于一个子网,否则“负载调度机”只能获取到“节点服务器”网关的MAC地址。
总结
本篇主要介绍了LVS-DR的工作原理、数据流向,并对其中出现的问题进行解释以及解决方法,介绍了LVS-DR的特点及优缺点,以及部署内网LVS-DR