概 述
在如今海量数据充斥的互联网环境下,分库分表的意义我想在此处就不用赘述了。而分库分表目前流行的方案最起码有两种:
方案一:基于应用层的分片,即应用层代码直接完成分片逻辑方案二:基于代理层的分片,即在应用代码和底层数据库中间添加一层代理层,而分片的路由规则则由代理层来进行处理而本文即将要实验的 MyCAT框架就属于第二种方案的代表作品。
环境规划
在本文中,我拿出了三台 Linux主机投入试验,各节点的角色分配如下表所示:
如果说上面这张表不足以说明实验模型,那接下来再给一张图好了,如下所示:
我想这样看来的话,各个节点布了哪些组件,节点间的角色关系应该一目了然了吧
实验环境规划好了以后,接下来进行具体的部署与实验过程,首先当然是 MyCAT代理的部署
MyCAT 部署
关于该部分,网上教程实在太多了,但最好还是参考官方文档来吧,下面也简述一下部署过程
下载 MyCAT并解压安装这里安装的是 MyCAT 1.5
启动 MyCAT./mycat start
MyCAT连接测试mysql-utest-ptest-h127.0.0.1-P8066-DTESTDB
MyCAT 配置
官网上对于这一部分的描述是非常详细的,MyCAT 配置主要涉及三个 XML配置文件:
server.xml:MyCAT框架的系统参数/用户参数配置文件schema.xml: MyCAT框架的逻辑库表与分片的配置文件rule.xml:MyCAT框架的逻辑库表分片规则的配置文件用如下图形可以形象地表示出这三个 XML配置文件的配置内容和相互关系:
下面来进入具体的实验环节 ,这也是围绕 MyCAT提供的几大主要功能展开的,主要涉及三个方面
分库分表读写分离主备切换实验之前,我们先给出公共的server.xml文件的配置,这部分后续实验过程中并不修改,其也就是定义了系统参数和用户参数:
分库分表实验
预期实验效果:通过 MyCAT代理往一张逻辑表中插入的多条数据,在后端自动地分配在不同的物理数据库表上
我们按照本文 **第二节【环境规划】**中给出的实验模型图来给出如下的 MyCAT逻辑库配置文件schema.xml和分库分表规则配置文件rule.xml
准备配置文件schema.xml
其中定义了实验用到的 hostM1、hostS1 和 hostM2
rule.xml
这里配置了sharding-by-month的分库分表规则,即按照表中的create_date字段进行分割,从2018-11-01日期开始,月份不同的数据落到不同的物理数据库表中
在三个物理节点数据库上分别创建两个库 db1和 db2createdatabase db1;createdatabase db2;
连接 MyCATmysql-utest-ptest-h127.0.0.1-P8066-DTESTDB
通过 MyCAT来创建数据库travelrecordcreatetable travelrecord (idbigintnotnull primary key,city varchar(100),create_date DATE);
通过 MyCAT来往travelrecord表中插入两条数据insertinto travelrecord(id,city,create_date) values(1,'NanJing','2018-11-3');insertinto travelrecord(id,city,create_date) values(2,'BeiJing','2018-12-3');
由于插入的这两条记录的
create_date
分别是
2018-11-3
和
2018-12-3
,而我们配的分库分表的规则即是根据
2018-11-01
这个日期为起始来进行递增的,按照前面我们配的分片规则,理论上这两条记录按照
create_date
日期字段的不同,应该分别插入到 hostM1的 db1和 db2两个不同的数据库中。
验证一下数据分片的效果
由于 hostM1和 hostS1组成了 主-从库关系,因此刚插入的两条数据也应该相应自动同步到 hostS1的 db1和 db2两个数据库中,不妨也来验证一下:
读写分离实验
**预期实验效果:**开启了 MyCAT的读写分离机制后,读写数据操作各行其道,互不干扰
此节实验用到的配置文件schema.xml和rule.xml基本和上面的【分库分表】实验没什么不同,只是我们需要关注一下schema.xml配置文件中标签里的balance字段,它是与读写分离息息相关的配置:因此我们就需要弄清楚 标签中 balance参数的含义:
balance="0":不开启读写分离机制,即读请求仅分发到 writeHost上balance="1":读请求随机分发到当前 writeHost对应的 readHost和 standby writeHost上balance="2":读请求随机分发到当前 dataHost内所有的 writeHost / readHost上balance="3":读请求随机分发到当前 writeHost对应的 readHost上我们验证一下balance="1"的情况,即开启读写分离机制,且读请求随机分发到当前 writeHost对应的 readHost和 standby writeHost上,而对于本文来讲,也即:hostS1 和 hostM2 上我们来做两次数据表的SELECT读操作:
然后我们取出mycat.log日志查看一下具体详情,我们发现第一次select读操作分发到了hostM2上:
而第二次select读操作分发到了hostS1上:
主备切换实验
**预期实验效果:**开启 MyCAT的主备机制后,当主库宕机时,自动切换到备用机进行操作
关于主备切换,则需要弄清楚标签中switchType参数的含义:
switchType="-1":不自动切换主备数据库switchType="1":自动切换主备数据库switchType="2":基于MySQL主从复制的状态来决定是否切换,需修改heartbeat语句:show slave statusswitchType="3":基于Galera(集群多节点复制)的切换机制,需修改heartbeat语句:show status like 'wsrep%'此处验证一下 Mycat的主备自动切换效果。为此首先我们将switchType="-1"设置为switchType="1",并重启 MyCat服务:
在本实验环境中,在 hostM1和 hostM2均正常时,默认写数据时是写到 hostM1的
接下来手动停止 hostM1 上的 MySQL数据库来模拟 hostM1 宕机:systemctl stop mysqld.service
接下来再通过 MyCat插入如下两条数据:
insertinto travelrecord(id,city,create_date) values(3,'TianJing','2018-11-4');insertinto travelrecord(id,city,create_date) values(4,'Wuhan','2018-12-4');
效果如下:
此时,我们恢复 hostM1,但接下来的数据写入依然进入 hostM2insertinto travelrecord(id,city,create_date) values(5,'ShenYang','2018-11-5');insertinto travelrecord(id,city,create_date) values(6,'Harbin','2018-12-5');
接下来手动让 hostM2宕机,看 hostM1 是否能升级为主写节点再插入两条数据:
insertinto travelrecord(id,city,create_date) values(7,'SuZhou','2018-11-6');insertinto travelrecord(id,city,create_date) values(8,'WuXi','2018-12-6');
很明显,答案是肯定的