对于大型企业,后台的服务器成千上万台,如何合理的将来自客户端访问的压力平均适宜的分配给各个后台服务器是至关重要的问题,将压力均发给后台服务器,可以有效的控制流量,有助于加快客户的访问速度,提高用户体验。
负载均衡的实现分类:
1、根据硬软件分类划分
硬件:F5Big-IP Citrix Netscaler A10 A10
软件:LVSnginx haproxy ats perlbal pound
2、根据工作的协议层次划分
传输层:LVS nginx haproxy
应用层:http:nginx, httpd, haproxy
fastcgi :nginx, httpd
mysql: mysql-proxy
这里小编只针对LVS进行讲述
一、LVS介绍
1、LVS工作原理:VS根据请求报文的目标IP和目标协议及端口将其调度转发到某RS,根据调度算法来挑选RS
2、专业术语:
VS:VirtualServer 调度器
RS:Realserver 真正提供服务的调度器
CIP:客户端IP
VIP:VS的外网IP
DIP:VS的内网IP
RIP:RS的IP地址
3、客户端通过VS的访问流程:
CIP <------> VIP ==DIP <------> RIP
4、实现LVS的管理工具
Ipvsadm/ipvs
Ipvsadm: 用户空间的命令工具,规则管理器,用于管理集群服务及RealServerr
Ipvs: 工作于内核空间netfilter的INPUT钩子上的构架
5、LVS集群的类型
Lvs-nat: 修改请求报文的目标IP,多目标IP的DNAT
Lvs-dr: 操纵封装新的mac地址
Lvs-tun: 在原请求IP报文之外新加一个IP首部
Lvs-fullnat;修改请求报文的源和目标IP
6、这里小编针对比较常用两个模型进行分析和实验,给大家进行演示:主要演示lvs-nat模型的实现,后续的模型实现敬请期待。
二、lvs-nat模型
1、实验条件要求:
(1)RIP和DIP必须在同一个IP网络,且应该使用私网地址; RS的网关要指向DIP (2)请求报文和响应报文都必须经由Director转发,Director易于成为系统瓶颈 (3)支持端口映射,可修改请求报文的目标PORT
(4)VS必须是Linux系统,RS可以是任意OS系统
2、网络结构拓扑图
3、地址分配
CIP:172.17.250.60
VIP:172.17.253.20
DIP:192.168.11.17
RS1_ip:192.168.11.11
RS2_ip:192.168.11.12
4、 路由设置
客户端:
VS端:
RS1端:
RS2端:
总体路由配置思路:
让客户端的路由指向VS的VIP,因为真实的互联网环境中客户端是通过路由叨叨VS的,但是实验中为了节省机器,所以我们简单的将客户端的默认路由指向VS的VIP,需要注意的是CIP和VIP都是属于公网地址,实验环境中需要将这两个IP地址分配为同一网段的。
VS中的路由一定要有指向RS的出口,所以有两个网段,一个对应外网,一个对应内网。
RS中的路由都要指向VS的DIP,这样在负载分配的时候数据包可以找到返回的路径。
5、 VS端的配置
(1)开启路由转发功能
方法一、直接改内存参数
echo1 > /proc/sys/net/ipv4/ip_forward
Vim/etc/sysctl.conf
方法二、修改配置文件
添加:net.ipv4.ip_forward = 1
(2)关闭防火墙和selinux
(3)安装ipvsadm
yum install ipvsadm
(4)配置ipvsadm进行修改ipvs参数
6、 RS需要配置web服务
主要目的是为了实现负载均衡。所以小编事先分配好了web服务。
7、 在客户端进行测试:
使用curl工具进行测试:
8、测试成功!
三、实验过程错误总结
1、需要先对RS服务器进行测试,看web服务是否能正常使用,确保web服务没有问题。
2、在VS上需要开启路由转发功能,否则VS不能将来自客户端的请求转发给RS服务器。
3、在配置的过程中一定要保证路由是通畅的,确保客户端能够ping通RS,这样才能让数据包正确的传输。
4、如果测试的时候显示的并不是分配到了两台RS上,可能是VS的分配出了问题,如果客户机能够ping通RS,则不会出现该问题。
5、如果测试中,客户机能够ping通RS,但是不能访问页面,去查看VS上ipvsadm服务是否开启。
6、如果ipvsadm服务不能正常开启,可以执行ipvsadm-seve > /etc/sysconfig/ipvsadm,执行完后再进行开启ipvsadm服务。
转载于:https://blog.51cto.com/jk6627/1979549