负载均衡:
客户端发送多个请求到服务器,服务器处理请求,有一些可能要与数据库
进行交互,服务器处理完毕后,再将结果返回给客户端。这种架构模式对
于早期的系统相对单一,并发请求相对较少的情况下是比较适合的,成本
也低。但是随着信息数量的不断增长,访问量和数据量的飞速增长,以及
系统业务的复杂度增加,这种架构会造成服务器相应客户端的请求日益缓
慢,并发量特别大的时候,还容易造成服务器直接崩溃。很明显这是由于
服务器性能的瓶颈造成的问题,那么如何解决这种情况呢?我们首先想到
的可能是升级服务器的配置,比如提高CPU执行频率,加大内存等提高机
器的物理性能来解决此问题,但是我们知道摩尔定律的日益失效,硬件的
性能提升已经不能满足日益提升的需求了。最明显的一个例子,天猫双十
一当天,某个热销商品的瞬时访问量是极其庞大的,那么类似上面的系统
架构,将机器都增加到现有的顶级物理配置,都是不能够满足需求的。那
么怎么办呢?
上面的分析我们去掉了增加服务器物理配置来解决问题的办法,也就是说
纵向解决问题的办法行不通了,那么横向增加服务器的数量呢?这时候集
群的概念产生了,单个服务器解决不了,我们增加服务器的数量,然后将
请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将
求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的
负载均衡。