实验前提:

1、本次实验是在Centos 7.4(64bit)系统上完成的。
2、实验前确保每台服务器时间同步
3、本次实验有3台主机,其中haproxy作为反向代理地址为192.168.31.43,后面2台的httpd服务器为web1-192.168.31.44和web2-192.168.31.45.(我这里在虚拟机上使用的是桥接的方式,也可以使用仅主机方式,不过使用仅主机方式haproxy上需要配置两块网卡)
4、测试时请关闭防火墙和selinux

安装配置步骤:
1、配置web1  IP地址:192.168.31.44



首先需要安装httpd服务(需要事先配置好yum源)
# yum -y install  httpd
然后修改httpd的根目录下的index.html文件,修改内容如下:
# echo  “WEB1,My ip is 192.168.31.44”  >  /var/www/html/index.html
启动httpd服务
# systemctl start httpd 
httpd开机自启动
# systemctl enable httpd



2、配置web2 IP地址:192.168.31.45



首先需要安装httpd服务(需要事先配置好yum源)
# yum -y install  httpd
然后修改httpd的根目录下的index.html文件,修改内容如下:
# echo  “WEB2,My ip is 192.168.31.45”  >  /var/www/html/index.html
启动httpd服务
# systemctl start httpd 
httpd开机自启动
# systemctl enable httpd



3、安装配置Haproxy   IP地址:192.168.31.43

在Centos 7.4默认的yum源,有haproxy的软件包,因此这里为了方便直接选择使用yum的方式进行安装。



[root@haproxy ~]# yum -y install haproxy



配置完成之后,然后在编辑其配置文件为如下内容:



[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg

    timeout http-request    10s
    timeout queue           1m
    timeout connect         10s
    timeout client          1m
    timeout server          1m
    timeout http-keep-alive 10s
    timeout check           10s
    maxconn                 3000

#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------

frontend front-cluster
    bind *:80
    mode http
    default_backend back-cluster

#---------------------------------------------------------------------
# static backend for serving up images, stylesheets and such
#---------------------------------------------------------------------

#---------------------------------------------------------------------
# round robin balancing between the various backends
#---------------------------------------------------------------------
backend back-cluster
    balance     roundrobin    (采用轮询调度算法)
    server      web1 192.168.31.44:80 check inter 1000 rise 1 fall 2 maxconn 2000
    server      web2 192.168.31.45:80 check inter 1000 rise 1 fall 2 maxconn 2000
    server      web3 127.0.0.1:8080 backup

listen stats

        mode http
        bind *:8081
        stats enable
        stats  hide-version
        stats uri /haproxyadmin?stats
        stats realm  "haproxy"
        stats auth  caoss:caoss
        stats admin if TRUE


修改完haproxy.cfg 配置文件,保存退出,并重启haproxy服务。  

4、测试负载均衡功能是否生效

访问:http://192.168.31.43/ 查看显示结果

Eureka 负载均衡策略 负载均衡cookie_服务器

然后再刷新该页面,查看显示结果

Eureka 负载均衡策略 负载均衡cookie_php_02

由于采用的是加权轮询算法,因此,每个用户的请求都会均匀的分发至后端的服务器。

5、定义Backup服务器


定义备份服务器的好处在于,当后端的所有服务器都不可用时,将启动备份服务器,此时备份服务器通常不是用来提供服务的,而是返回一些提示信息给用户,比如“网站正在维护中,请您稍后访问...”等之类的信息。
在backend段中在添加一个server,并且在这个server后面加上参数backup即可。如:
 backend webserver
            server  web3 127.0.0.1:8080 backup
然后在本机上安装httpd,并启动该服务器。
# yum -y install httpd
echo "<h1>网站正在维护中,请您稍后访问...</h1>" > /var/www/html/index.html
编辑apache主配置文件:/etc/httpd/conf/httpd.conf 找到Listen 80 这一行将其修改为Listen 8080 保存退出
然后再启动httpd服务即可
# systemctl start httpd


此时,停止WEB1、WEB2上的http服务:



[root@web1 ~]# systemctl stop httpd
[root@web2 ~]# systemctl stop httpd



再次访问 http://192.168.31.43/

Eureka 负载均衡策略 负载均衡cookie_服务器_03

 

6、定制日志文件

 Haproxy 在默认情况下不会记录日志,除在haproxy.conf 中global 段指定日志的输出外,还需配置系统日志rsyslog 服务。


[root@haproxy /]# vim /etc/haproxy/haproxy.cfgdefaults
    mode                    http
    log                     global
    option                  httplog
    log                     127.0.0.1 local3
#    option                  dontlognull
#    option http-server-close
#    option forwardfor       except 127.0.0.0/8
    option                  redispatch
    retries                 3
    timeout http-request    10s
    timeout queue           1m
    timeout connect         10s
    timeout client          1m
    timeout server          1m
    timeout http-keep-alive 10s
    timeout check           10s
    maxconn                 3000


编辑系统日志配置文件


[root@haproxy /]# vim /etc/rsyslog.conf...............................省略...............................
# Include all config files in /etc/rsyslog.d/
$IncludeConfig /etc/rsyslog.d/*.conf


默认配置文件会读取/etc/rsyslog.d/*.conf目录下的配置文件

由此我们可以为haproxy 单独创建一个配置文件haproxy.conf


vim  /etc/rsyslog.d/haproxy.conf$ModLoad imudp

$UDPServerRun 514

local3.*     /var/log/haproxy.log


修改rsyslog 的主配置文件,开启远程日志


[root@haproxy /]# vim /etc/sysconfig/rsyslog # Options for rsyslogd
# Syslogd options are deprecated since rsyslog v3.
# If you want to use them, switch to compatibility mode 2 by "-c 2"
# See rsyslogd(8) for more details
SYSLOGD_OPTIONS="-c 2 -r -m 0"


参数说明:

-c 2 使用兼容模式,默认是 -c 5
-r 开启远程日志
-m 0 标记时间戳。单位是分钟,为0时,表示禁用该功能

重启haproxy和rsyslog服务


[root@haproxy /]# systemctl restart haproxy[root@haproxy /]# systemctl restart rsyslog


验证是否生效 


[root@haproxy /]# tail -f /var/log/haproxy.log Apr 10 09:44:11 localhost haproxy[3997]: Proxy webproxy started.
Apr 10 09:44:11 localhost haproxy[3997]: Proxy static started.
Apr 10 09:44:11 localhost haproxy[3997]: Proxy dynamic started.
Apr 10 09:44:11 localhost haproxy[3997]: Proxy stats started.
Apr 10 10:20:56 localhost haproxy[4052]: Proxy webproxy started.
Apr 10 10:20:56 localhost haproxy[4052]: Proxy static started.
Apr 10 10:20:56 localhost haproxy[4052]: Proxy dynamic started.
Apr 10 10:20:56 localhost haproxy[4052]: Proxy stats started.
Apr 10 10:47:02 localhost haproxy[4053]: 192.168.10.35:61856 [10/Apr/2019:10:47:02.323] webproxy static/static 0/0/0/3/3 304 123 - - ---- 1/1/0/1/0 0/0 "GET / HTTP/1.1"
Apr 10 10:47:03 localhost haproxy[4053]: 192.168.10.35:61856 [10/Apr/2019:10:47:02.327] webproxy static/static 1541/0/0/1/1542 304 123 - - ---- 2/2/0/1/0 0/0 "GET / HTTP/1.1"
Apr 10 10:47:12 localhost haproxy[4053]: 192.168.10.35:61857 [10/Apr/2019:10:47:02.329] webproxy webproxy/<NOSRV> -1/-1/-1/-1/10002 408 212 - - cR-- 1/1/0/0/0 0/0 "<BADREQ>"
Apr 10 10:47:12 localhost haproxy[4053]: 192.168.10.35:61856 [10/Apr/2019:10:47:03.870] webproxy static/static 8545/0/0/2/8547 304 123 - - ---- 2/2/0/1/0 0/0 "GET / HTTP/1.1"
Apr 10 10:47:13 localhost haproxy[4053]: 192.168.10.35:61856 [10/Apr/2019:10:47:12.416] webproxy static/static 776/0/0/1/777 304 123 - - ---- 2/2/0/1/0 0/0 "GET / HTTP/1.1"
Apr 10 10:47:22 localhost haproxy[4053]: 192.168.10.35:61892 [10/Apr/2019:10:47:12.415] webproxy webproxy/<NOSRV> -1/-1/-1/-1/10001 408 212 - - cR-- 1/1/0/0/0 0/0 "<BADREQ>"
Apr 10 10:47:24 localhost haproxy[4053]: 192.168.10.35:61920 [10/Apr/2019:10:47:24.917] webproxy dynamic/dynamic 0/0/0/18/20 200 55068 - - ---- 2/2/0/1/0 0/0 "GET /index.php HTTP/1.1"
Apr 10 10:47:24 localhost haproxy[4053]: 192.168.10.35:61920 [10/Apr/2019:10:47:24.938] webproxy dynamic/dynamic 19/0/0/1/20 200 2695 - - ---- 2/2/1/2/0 0/0 "GET /index.php?=PHPE9568F34-D428-11d2-A769-00AA001ACF42 HTTP/1.1"
Apr 10 10:47:24 localhost haproxy[4053]: 192.168.10.35:61921 [10/Apr/2019:10:47:24.920] webproxy dynamic/dynamic 37/0/1/3/41 200 2317 - - ---- 2/2/0/1/0 0/0 "GET /index.php?=PHPE9568F35-D428-11d2-A769-00AA001ACF42 HTTP/1.1"


7、session会话保持机制
session保持方式一般说来有四种:

(1)、基于ip的绑定,这种方式不利用负载均衡,比如nat服务器后的所有用户将会被调度到后端的同一个服务器上。lvs、nginx、haproxy均提供了此功能。
(2)、基于cookie绑定,这种做法可以使得每个用户的请求被调度到不同的后端服务器,从而实现负载功能,而haproxy提供了此功能。
(3)、session集群或session复制,这种做法会使得服务器资源消耗太大,并且集群服务器之间的session信息相互复制,会增大网络io。
(4)、使用一台单独的服务器作为session服务器,当需要某个客户端的session信息时,直接从这台session服务器上获取即可。但是这种做法需要为session服务器提供高可用服务,否则session服务器故障,则所有的session信息不可用。


在这里只介绍如何使用cookie来实现会话保持功能如在配置文件中添加如下内容: backend back-cluster balance roundrobin cookie SERVERID insert nocache server web1 192.168.31.44:80 cookie websession1 check inter 1000 rise 1 fall 2 server web2 192.168.31.45:80 cookie websession2 check inter 1000 rise 1 fall 2 server web3 127.0.0.1:8080 backup 然后重载haproxy服务 [root@haproxy ~]# systemctl reload haproxy


然后测试访问http://192.168.31.43,第一次访问时将会在响应报文中出现一个set-cookie的首部信息,其值为相应后端服务器返回的value,这里为websession2 ,如下图所示:

Eureka 负载均衡策略 负载均衡cookie_后端_04

当用户下一次再请求时,请求报文中将会新增一个cookie首部,如下图所示:

Eureka 负载均衡策略 负载均衡cookie_后端_05

  

8、启用统计报告功能,使用web界面来管理其haproxy的状态连接等信息


listen stats

        mode http
        bind *:8081
        stats enable
        stats  hide-version
        stats uri /haproxyadmin?stats
        stats realm  "haproxy"
        stats auth  caoss:caoss
        stats admin if TRUE   (表示只有认证通过后才可以管理其统计信息)


http://192.168.31.43:8081/haproxyadmin?stats  用户名caoss 密码caoss

Eureka 负载均衡策略 负载均衡cookie_服务器_06


这个界面包含了各种haproxy的状态、连接、会话、宕机时长等信息。其中这些参数的意思如下:

Queue显示的是一些队列的参数

Cur:当前的队列数

Max:最大队列数

Limit:队列的限制数

Session rate显示的是与会话速率相关的参数

Cur:表示当前每秒的会话数,也是当前每秒的请求数。

Max:表示当前每秒最大的会话数。也是指的是最大并发数。

Limit:限制每秒的会话数。

Sessions显示的是与会话统计相关的参数

Cur:当前的会话数

Max:某一时刻的最大会话总数

Limit:会话限制数

Total:总的连接数或者总的session数

LbTot: total number of times a server was selected,从后端选择一台服务器所花的时间。

Last:表示上一次会话到现在所经过的时间。如果此参数太大了,表示该服务器一致处于空闲状态。

Bytes:显示的请求和响应的字节数

In:表示进来的字节数

Out:表示出去的字节数

Denied:拒绝的字节数

Req:表示请求被拒绝的字节数

Resp:响应被拒绝的字节数

Errors:表示与错误相关的参数

Req:表示错误的请求数

Conn:错误的连接数

Resp:错误的响应数

Warnings:与提示相关的参数

Retr:表示重新尝试连接的次数

Redis:重新发送的次数

server:与服务器状态相关的参数

status:显示的后端服务器的状态,及其由一种状态转换为另一种状态的时间。服务器状态只有up或down。

LastChk:表示是通过4层还是通过7层方式来检查后端服务器的健康状况。con表示连接被拒绝,因此,监测失败。ok表示检测成功。

Weight:后端服务器的权重

Act:是否是活动主机。Y表示yes。

Bct:是否是备份主机。

Chk:后端服务器的健康状况监测失败的次数。

Dwn:后端服务器宕过的次数。

Dwntme:宕机的总时间

9、Haproxy 实现请求的动静分离

通常,在一个中等或者中等以上规模的网站架构中,需要将静态资源和动态资源分开进行处理。即静态内容由一台或多台服务器进行处理;而动态内容由另外的一台或多台服务器进行处理。这样静态和动态内容实现分离响应。haproxy可以利用acl来完成请求资源的动静分离。

其架构设计如下:

Eureka 负载均衡策略 负载均衡cookie_服务器_07

 

在这个图中,所有静态资源由static site处理,而所有的动态资源则由dynamic site处理。

其中:

haproxy ip:192.168.31.43
static site ip:192.168.31.44
dynamic site ip:192.168.31.45Haproxy 配置
  
动静分离的配置如下:frontend webproxy *:80        acl url_static path_beg -i /static /img /p_w_picpaths /css        acl url_static path_end -i .html .xml .css .txt .png .gif .js .gpg
        acl url_dynamic  path_end -i .php
        use_backend static  if url_static
        use_backend dynamic if url_dynamic
        default_backend static

#---------------------------------------------------------------------
# static backend for serving up images, stylesheets and such
#---------------------------------------------------------------------

#---------------------------------------------------------------------
# round robin balancing between the various backends
#---------------------------------------------------------------------
backend static
        balance roundrobin
        server static  192.168.31.44:80 check inter 5 fall 2 rise 1 weight 1 maxconn 2000

backend dynamic
        balance roundrobin
        server dynamic 192.168.31.45:80 check inter 5 fall 2 rise 1 weight 1 maxconn 1000
  
static site:
  
[root@web1 ~]# echo "<h1><center>Static site WEB1,My ip is 192.168.31.44</center></h1>" > /var/www/html/index.html
  
dynamic site:
  
[root@web2 ~]# echo "<h1> <center>Dynamic site WEB2,My ip is 192.168.31.45 </center> <?php phpinfo();?> </h1>" >/var/www/html/index.php

重新启动httpd服务


[root@web1 ~]# systemctl restart  httpd[root@web2 ~]# systemctl restart  httpd


测试访问效果:

①   访问http://192.168.31.43/index.html

Eureka 负载均衡策略 负载均衡cookie_php_08

 

② 访问http://192.168.31.43/index.php

Eureka 负载均衡策略 负载均衡cookie_开发工具_09

  

 

③ 默认不指定URI,则请求访问到的是静态资源

Eureka 负载均衡策略 负载均衡cookie_开发工具_10

  

由此,不难看出,请求的动态资源和静态资源分离实现。