linux 使用bond实现双网卡绑定单个IP
linux 使用bond实现双网卡绑定单个IP
双网卡绑定单个IP 地址 为了提供网络的高可用性,我们可能需要将多块网卡绑定成一块虚拟网卡对外提供服务,这样即使其中的一块物理网卡出现故障,也不会导致连接中断。
bond在Linux下叫bonding,IBM称为etherchanel,broadcom叫team,但是名字怎么变,效果都是将两块或更多的网卡当做一块网卡使用,在增加带宽的同时也可以提高冗余性。
实现双网卡绑定的方法有两种: bond和team
这里先记下bond的绑定方法
bond支持的模式
共支持bond[0-6]共七种模式,常用的就三种,如下:
mode=0:默认,平衡负载模式,有自动备援,但需要配置交换机。
mode=1:主备模式,其中一条线若断线,其他线路将会自动备援,不需要配置交换机。
mode=6:平衡负载模式,有自动备援,不需要配置交换机。
至于其他的模式,解释如下:
mode=2:选择网卡的序号=(源MAC地址 XOR 目标MAC地址) %
Slave网卡(从网卡)的数量,其他的传输策略可以通过xmit_hash_policy配置项指定
mode=3:使用广播策略,数据包会被广播至所有Slave网卡进行传送
mode=4:使用动态链接聚合策略,启动时会创建一个聚合组,所有Slave网卡共享同样的速率和双工设定 但是,mode4有两个必要条件
1.支持使用ethtool工具获取每个slave网卡的速率和双工设定;
2.需要交换机支持IEEE 802.3ad 动态链路聚合(Dynamic link aggregation)模式
mode=5:基于每个slave网卡的速率选择传输网卡。必要条件:支持使用ethtool工具获取每个slave网卡的速率。
网卡
bond1IP
bond模式
ens33、ens37
192.168.10.111
mode 1
确保有两块网卡
注:网卡是随机生成的名称,不一定都是ens37
注: ip地址配置在bond1 上,物理网卡也可以不配置IP地址,上面我的环境是dhcp自动获取的ip地址
#加载bonding模块,并确认已经加载
[[email protected] ~]# modprobe --first-time bonding
[[email protected] ~]# lsmod | grep bonding
bonding 141566 0
#编辑bond1配置文件
[[email protected] ~]# vim /etc/sysconfig/network-scripts/ifcfg-bond1
DEVICE=bond1
TYPE=Bond
IPADDR=192.168.10.111
NETMASK=255.255.255.0
GATEWAY=192.168.10.2#vmnet8的网关
DNS1=114.114.114.114
DNS2=8.8.8.8
USERCTL=no
BOOTPROTO=none
ONBOOT=yes
#修改ens33配置文件
[[email protected] ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33
DEVICE=ens33
TYPE=Ethernet
ONBOOT=yes
BOOTPROTO=none
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
NMAE=ens33
MASTER=bond1 # 需要和上面的ifcfg-bond0配置文件中的DEVICE的值一致
SLAVE=yes
#修改ens37配置文件,(和ens33配置区别为换了个名)
[[email protected] ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens37
DEVICE=ens37
TYPE=Ethernet
ONBOOT=yes
BOOTPROTO=none
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
NMAE=ens37
MASTER=bond1 # 需要和上面的ifcfg-bond0配置文件中的DEVICE的值一致
SLAVE=yes
# 配置bonding
[[email protected] ~]# vim /etc/modules-load.d/bonding.conf
alias bond1 bonding
options bonding mode=1 miimon=200
#重启网卡使配置生效
[[email protected] ~]# systemctl restart network
#重启网络后查看各个网卡的信息
[[email protected] ~]# ip a show ens33
2: ens33: mtu 1500 qdisc pfifo_fast master bond1 state UP qlen 1000
link/ether 00:0c:29:d6:b9:00 brd ff:ff:ff:ff:ff:ff
[[email protected] ~]# ip a show ens37
3: ens37: mtu 1500 qdisc pfifo_fast master bond1 state UP qlen 1000
link/ether 00:0c:29:d6:b9:00 brd ff:ff:ff:ff:ff:ff
[[email protected] ~]# ip a show bond1
7: bond1: mtu 1500 qdisc noqueue state UP qlen 1000
link/ether 00:0c:29:d6:b9:00 brd ff:ff:ff:ff:ff:ff
inet 192.168.10.111/24 brd 192.168.10.255 scope global bond1
valid_lft forever preferred_lft forever
inet6 fe80::20c:29ff:fed6:b900/64 scope link
valid_lft forever preferred_lft forever
#查看bond1相关信息
[[email protected] ~]# cat /proc/net/bonding/bond1
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)
Bonding Mode: load balancing (round-robin) # 绑定模式
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
Slave Interface: ens33# 备用接口: ens33
MII Status: up# 接口状态
Speed: 1000 Mbps # 端口速率
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:0c:29:d6:b9:00 # 接口永久MAC地址
Slave queue ID: 0
Slave Interface: ens37 # 备用接口: ens37
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:0c:29:d6:b9:0a
Slave queue ID: 0
测试
1.可以用xshell连接(ip为 设置的bond1 的IP)
2.本地ping bond1 的IP,然后断掉其中一块网卡,查看是否还会ping通
本地一直ping,
断掉其中一块网卡
断掉之后会发现不通了
重启网卡
[[email protected] ~]# systemctl restart network
能ping通了
查看bond1信息,ens33是关闭的
总结:当做到这一步的时候,ens33或ens36中任意一块网卡down掉,都不会影响通信
总结:当做到这一步的时候,ens33或ens36中任意一块网卡down掉,都不会影响通信
总结:当做到这一步的时候,ens33或ens36中任意一块网卡down掉,都不会影响通信