文章目录

  • 引言
  • 一、bond概述
  • 1、bond优点
  • 2、bond模式
  • 2.1 mode=0
  • 2.2 mode=1
  • 2.3 mode=2
  • 2.4 mode=3
  • 2.5 mode=4
  • 2.6 mode=5
  • 2.7 mode=6
  • 二、bond0双网卡主备实验
  • 三、结论


引言

当linux系统上有多个单独网卡,又想充分利用这些网卡,同时对外提供一个统一的网络地址,以使得增大网络的吞吐量,同时也提高网络的可用性,这时就需要bond来帮助我们解决这个问题。

一、bond概述

bond是将多块物理网卡虚拟为一块逻辑网卡,使多块网卡看起来像一块网卡,通过主从的配置来讲进行网络的运行维护。

1、bond优点

linux系统下配置bond,通过网卡绑定可增加服务器可靠性,同时可增加网络带宽,提供稳定的网络服务。

2、bond模式

Linux网卡绑定mode共有七种(0~6) bond0、bond1、bond2、bond3、bond4、bond5、bond6,接下来我们一起简单看下这7中模式的工作原理概述。

2.1 mode=0

轮询策略,数据包在每个slave网卡上都进行数据传输,以逐包形式在两个物理网卡上转发数据。这种模式提供了数据的负载均衡和容错能力。

bond0工作原理
传输数据包顺序是依次传输(即:第1个包走eth0,下一个包就走eth1….一直循环下去,直到最后一个传输完毕),此模式提供负载平衡和容错能力;但是我们知道如果一个连接或者会话的数据包从不同的接口发出的话,中途再经过不同的链路,在客户端很有可能会出现数据包无序到达的问题,而无序到达的数据包需要重新要求被发送,这样网络的吞吐量就会下降.

2.2 mode=1

在主备模式下,只有主网卡工作,备份网卡不工作,只有当一个网络接口失效时(例如交换机掉电等),为了不会出现网络中断,系统会按照配置指定的网卡顺序启动工作,保证机器仍能对外服务,起到了失效保护功能。

bond1工作原理
只有一个设备处于活动状态,当一个宕掉另一个马上由备份转换为主设备。mac地址是外部可见得,从外面看来,bond的MAC地址是唯一的,以避免switch(交换机)发生混乱。此模式只提供了容错能力;由此可见此算法的优点是可以提供高网络连接的可用性,但是它的资源利用率较低,只有一个接口处于工作状态,在有N个网络接口的情况下,资源利用率为1/N。

2.3 mode=2

基于所选择的hash策略,本模式也提供负载均衡和容错能力。

bond2工作原理
基于指定的传输HASH策略传输数据包。缺省的策略是:(源MAC地址 XOR 目标MAC地址) % slave数量。其他的传输策略可以通过xmit_hash_policy选项指定,此模式提供负载平衡和容错能力。

2.4 mode=3

广播策略,向所有的slave接口发送数据包,本模式提供容错能力。

bond3工作原理
在每个slave接口上传输每个数据包,此模式提供了容错能力。

2.5 mode=4

动态链路聚合,根据802.3ad标准利用所有的slave建立聚合链路。slave接口的出口取决于传输的hash策略,默认策略是简单的XOR策略,而hash策略则可以通xmit_hash_policy选项配置。

前提:每个slave网卡支持ethtool获取速率和双工状态

bond4工作原理
创建一个聚合组,它们共享同样的速率和双工设定。根据802.3ad规范将多个slave工作在同一个激活的聚合体下。外出流量的slave选举是基于传输hash策略,该策略可以通过xmit_hash_policy选项从缺省的XOR策略改变到其他策略。需要注意的是,并不是所有的传输策略都是802.3ad适应的,尤其考虑到在802.3ad标准43.2.4章节提及的包乱序问题。不同的实现可能会有不同的适应性。

2.6 mode=5

自适应传输负载均衡:根据每个slave的负载(相对速度)决定从哪个接口发送数据包,从当前接口接收数据包。如果接收的slave接口故障,其它slave接口将接管它的mac地址继续接收。

前提:每个slave网卡支持ethtool获取速率。

bond5工作原理
不需要任何特别的switch(交换机)支持的通道bonding。在每个slave上根据当前的负载(根据速度计算)分配外出流量。如果正在接受数据的slave出故障了,另一个slave接管失败的slave的MAC地址。

2.7 mode=6

自适应负载均衡

前提:每个slave网卡支持ethtool获取速率,每个slave网卡支持启用时重新设置硬件地址

bond6工作原理
该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡(receive load balance, rlb),而且不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的。bonding驱动截获本机发送的ARP应答,并把源硬件地址改写为bond中某个slave的唯一硬件地址,从而使得不同的对端使用不同的硬件地址进行通信。

二、bond0双网卡主备实验

1、首先,添加网卡

主备集群架构图_网络


2、编辑网卡,编辑好之后重启网络

主备集群架构图_主备集群架构图_02

主备集群架构图_linux_03


主备集群架构图_双网卡主备实验_04


3、修改配置文件vim /etc/modprobe.d/bonding.conf

添加下列两行

主备集群架构图_工作原理_05


4、关闭NetworkManager并设置开机自关闭

主备集群架构图_网络_06


5、重启机器,先开启httpd服务,然后选用另一台机器做压力测试,这台机器也要开启httpd服务。

主备集群架构图_linux_07


6、验证结果

sar -n DEV 1 2

命令后面1 2 意思是:每一秒钟取1次值,取2次。

DEV显示网络接口信息

主备集群架构图_linux_08


主备集群架构图_主备集群架构图_09


主备集群架构图_网络_10

三、结论

由上述实验案例可以验证bond是将多块物理网卡虚拟为一块逻辑网卡,可以通过主从的配置来讲进行网络的运行维护。