负载均衡:

nginx之负载均衡_客户端

客户端发送多个请求到服务器,服务器处理请求,有一些可能要与数据库

进行交互,服务器处理完毕后,再将结果返回给客户端。这种架构模式对

于早期的系统相对单一,并发请求相对较少的情况下是比较适合的,成本

也低。但是随着信息数量的不断增长,访问量和数据量的飞速增长,以及

系统业务的复杂度增加,这种架构会造成服务器相应客户端的请求日益缓

慢,并发量特别大的时候,还容易造成服务器直接崩溃。很明显这是由于

服务器性能的瓶颈造成的问题,那么如何解决这种情况呢?我们首先想到

的可能是升级服务器的配置,比如提高CPU执行频率,加大内存等提高机

器的物理性能来解决此问题,但是我们知道摩尔定律的日益失效,硬件的

性能提升已经不能满足日益提升的需求了。最明显的一个例子,天猫双十

一当天,某个热销商品的瞬时访问量是极其庞大的,那么类似上面的系统

架构,将机器都增加到现有的顶级物理配置,都是不能够满足需求的。那

么怎么办呢?
nginx之负载均衡_服务器_02

 

上面的分析我们去掉了增加服务器物理配置来解决问题的办法,也就是说

纵向解决问题的办法行不通了,那么横向增加服务器的数量呢?这时候集

群的概念产生了,单个服务器解决不了,我们增加服务器的数量,然后将

请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将

求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的

负载均衡。