一、web server session

server端session:

1、service向用户浏览器发送cookie,此cookie包含获取服务端session的标识。

2、向用户通过浏览器请求同一站点的页面时,相应的cookie信息会随之发送。

3、server从cookie信息中识别出与此浏览器相关的session标识,从而判别出当前server上此浏览器的session信息。

在用户浏览器不支持cookie的场景中,也可以基于URL重写实现session功能。简单来讲就是server端通过为任何一个响应给用户的URL附加上session id的方式来标识用户请求。

不过需要注意的是,每个浏览器进程都会各自管理各自跟服务端的会话ID,因此,在服务器端看来,同一个客户端上的多个浏览器进程会被识别成不同的客户端。


二、会话管理器:

标准会话管理器和持久会话管理器

标准会话管理器(StandardManager):

<Manager className="org.apache.catalina.session.StandardManager"

         maxInactiveInterval="7200"/>

默认保存于$CATALINA_HOME/work/Catalina/<hostname>/<webapp-name>/下的SESSIONS.ser文件中。

maxActiveSessions:最多允许的活动会话数量,默认为-1,表示不限制; 

maxInactiveInterval:非活动的会话超时时长,默认为60s;

pathname:会话文件的保存目录;


持久会话管理器(PersistentManager):

将会话数据保存至持久存储中,并且能在服务器意外中止后重新启动时重新加载这些会话信息。持久会话管理器支持将会话保存至文件存储(FileStore)或JDBC存储(JDBCStore)中。

保存至文件中的示例:

<Manager className="org.apache.catalina.session.PersistentManager"
  saveOnRestart="true">
  <Store className="org.apache.catalina.session.FileStore"
    directory="/data/tomcat-sessions"/>
</Manager>

每个用户的会话会被保存至directory指定的目录中的文件中,文件名为<session id>.session,并通过后台线程每隔一段时间(checkInterval参数定义,默认为60秒)检查一次超时会话。

保存至JDBCStore中的示例:

<Manager className="org.apache.catalina.session.PersistentManager"
  saveOnRestart="true">
  <Store className="org.apache.catalina.session.JDBCStore"
    driverName="com.mysql.jdbc.Driver"
    connectionURL="jdbc:mysql://localhost:3306/mydb?user=jb;password=pw"/>
</Manager>


三、配置基于mod_jk的负载均衡

1、为了避免用户直接访问后端Tomcat实例,影响负载均衡的效果,建议在Tomcat 7的各实例上禁用HTTP/1.1连接器。

2、为每一个Tomcat 7实例的引擎添加jvmRoute参数,并通过其为当前引擎设置全局惟一标识符。如下所示。需要注意的是,每一个实例的jvmRoute的值均不能相同。

<Engine name=”Standalone” defaultHost=”localhost” jvmRoute=” TomcatA ”>

3、修改虚拟主机配置

[root@liang-study extra]# vim httpd-jk.conf 

# Load the mod_jk
LoadModule  jk_module  modules/mod_jk.so
JkWorkersFile  /usr/local/apache/conf/extra/workers.properties
JkLogFile  logs/mod_jk.log
JkLogLevel  debug
JkMount  /*  lbcluster1
JkMount  /status/  stat1
[root@liang-study extra]# vim workers.properties 

worker.list = lbcluster1,stat1
worker.TomcatA.type = ajp13
worker.TomcatA.host = 192.168.210.148
worker.TomcatA.port = 8009
worker.TomcatA.lbfactor = 5
worker.TomcatB.type = ajp13
worker.TomcatB.host = 192.168.210.198
worker.TomcatB.port = 8009
worker.TomcatB.lbfactor = 5
worker.lbcluster1.type = lb
worker.lbcluster1.sticky_session = 1
worker.lbcluster1.balance_workers = TomcatA, TomcatB
worker.stat1.type = status

4、重启httpd服务,验证访问结果。


四、配置基于mod_proxy的负载均衡

1、为了避免用户直接访问后端Tomcat实例,影响负载均衡的效果,建议在Tomcat 7的各实例上禁用HTTP/1.1连接器。

2、为每一个Tomcat 7实例的引擎添加jvmRoute参数,并通过其为当前引擎设置全局惟一标识符。如下所示。需要注意的是,修改server.xml每一个实例的jvmRoute的值均不能相同。

<Engine name=”Standalone” defaultHost=”localhost” jvmRoute=” TomcatA ”>

3、修改httpd.conf配置

[root@liang-study conf]# vim httpd.conf
Include conf/extra/tomcat-http.conf

4、添加虚拟主机配置

[root@liang-study conf]# vim extra/tomcat-http.conf 

ProxyRequests Off
   <proxy balancer://liangcluster>
       BalancerMember ajp://192.168.210.148:8009 loadfactor=1 route=tomcatA
       BalancerMember ajp://192.168.210.198:8009 loadfactor=1 route=tomcatB
   </proxy>


<VirtualHost *:80>
  ServerName www.liangstudy.com
  ProxyPass / balancer://liangcluster/ stickysession=jsessionid nofailover=On
  ProxyPassReverse / balancer://liangcluster/
  ErrorLog "logs/proxyTest-error.log"
  CustomLog "logs/lbtest-access.log" common
</VirtualHost>

5、重新启动apache,即可


五、用于mod_proxy状态信息的输出

<Location /balancer-manager>

  SetHandler balancer-manager

  Order Deny,Allow

  Allow from all

</Location>


如果使用虚拟主机实现反向代理,如何在对应的虚拟主机上完成状态信息输出:

ProxyRequests Off

<proxy balancer://lbcluster1>

  BalancerMember ajp://192.168.10.8:8009 loadfactor=1

  BalancerMember ajp://192.168.10.9:8009 loadfactor=1

  ProxySet lbmethod=bytraffic

</proxy>



<VirtualHost *:80>

  ServerName localhost

  ProxyVia On

  ProxyPass / balancer://lbcluster1/  stickysession=JSESSIONID|jsessionid nofailover=On

  ProxyPassReverse / balancer://lbcluster1/

  <Location /balancer-manager>

    SetHandler balancer-manager

    Proxypass !

    Require all granted

  </Location>

  <Proxy *>

    Require all granted

  </Proxy>

  <Location  / >

    Require all granted

  </Location>

</VirtualHost>


五、基于mod_proxy实现共享集群

  根据会话管理器的模式,我们选用org.apache.catalina.ha.session.DeltaManager的方法来实现共享,所有启用集群功能的web应用程序,其web.xml中都须添加<distributable/>才能实现集群功能。如果某web应用程序没有自己的web.xml,也可以通过复制默认的web.xml至其WEB-INF目录中实现。

1、修改web.xml

[root@liang-study webapps]# cd /home/websites/webapps/
[root@liang-study webapps]# mkdir WEB-INF
[root@liang-study webapps]# cp /usr/local/tomcat/conf/web.xml WEB-INF/
[root@liang-study webapps]# ll
total 8
-rw-r--r-- 1 root root  434 Jan 17 17:57 index.jsp
drwxr-xr-x 2 root root 4096 Jan 18 20:20 WEB-INF
[root@liang-study webapps]# vim WEB-INF/web.xml 
在web.xml中添加<distributable/>即可,记得在另外一台tomcat上也需要做这个操作
[root@liang-study webapps]# scp -r WEB-INF/ root@192.168.210.198:/home/websites/webapps/

2、修改server.xml

在<Engine name="Catalina" defaultHost="www.liangstudy.com" jvmRoute="tomcatA">下添加
<Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"
                   channelSendOptions="8">
     <Manager className="org.apache.catalina.ha.session.DeltaManager"
                    expireSessionsOnShutdown="false"
                    notifyListenersOnReplication="true"/>
       <Channel className="org.apache.catalina.tribes.group.GroupChannel">
          <Membership className="org.apache.catalina.tribes.membership.McastService"
                   address="228.90.90.1"   bind="192.168.210.148"   port="45564"
                   frequency="500"  dropTime="3000"/>
             <Receiver className="org.apache.catalina.tribes.transport.nio.NioReceiver"
                                address="192.168.210.148"   port="4000"  autoBind="100"
                                selectorTimeout="5000"   maxThreads="6"/>
             <Sender className="org.apache.catalina.tribes.transport.ReplicationTransmitter">
                <Transport className="org.apache.catalina.tribes.transport.nio.PooledParallelSender"/>
             </Sender>
       <Interceptor className="org.apache.catalina.tribes.group.interceptors.TcpFailureDetector"/>
       <Interceptor className="org.apache.catalina.tribes.group.interceptors.MessageDispatch15Interceptor"/>
     </Channel>
     <Valve className="org.apache.catalina.ha.tcp.ReplicationValve"
                        filter=".*\.gif;.*\.js;.*\.jpg;.*\.htm;.*\.html;.*\.txt;"/>
     <Valve className="org.apache.catalina.ha.session.JvmRouteBinderValve"/>
     <Deployer className="org.apache.catalina.ha.deploy.FarmWarDeployer"
                     tempDir="/tmp/war-temp/" deployDir="/tmp/war-deploy/"
                    watchDir="/tmp/war-listen/"  watchEnabled="false"/>
      <ClusterListener className="org.apache.catalina.ha.session.JvmRouteSessionIDBinderListener"/>
      <ClusterListener className="org.apache.catalina.ha.session.ClusterSessionListener"/>
</Cluster>
注意根据tomcat主机不同修改配置文件中 bind="192.168.210.148"和address="192.168.210.148"

3、重启tomcat