mongodb分片
分片(sharding)是MongoDB用来将大型集合分割到不同服务器(或者说一个集群)上所采用的方法。尽管分片起源于关系型数据库分区,但MongoDB分片完全又是另一回事。 和MySQL分区方案相比,MongoDB的大区别在于它几乎能自动完成所有事情,只要告诉MongoDB要分配数据, 它就能自动维护数据在不同服务器之间的均衡。
简介
高数据量和吞吐量的数据库应用会对单机的性能造成较大压力,大的查询量会将单机的CPU耗尽,大的数据量对单机的 存储压力较大,终会耗尽系统的内存而将压力转移到磁盘IO上。
为了解决这些问题,有两个基本的方法: 垂直扩展和水平扩展。
- 垂直扩展:增加更多的CPU和存储资源来扩展容量。
- 水平扩展:将数据集分布在多个服务器上。水平扩展即分片。
分片为应对高吞吐量与大数据量提供了方法。使用分片减少了每个分片需要处理的请求数,因此,通过水平扩展,集群可以提高自己的存储容量和吞吐量。举例来说,当插入一条数据时,应用只需要访问存储这条数据的分片。
使用分片减少了每个分片存储的数据。例如,如果数据库1tb的数据集,并有4个分片,然后每个分片可能仅持有256 GB的数据。
分片集群优势
- 对集群进行抽象,让集群“不可见”
- MongoDB自带了一个叫做mongos的专有路由进程。mongos就是掌握统一路口的路由器,其会将客户端 发来的请求准确无误的路由到集群中的一个或者一组服务器上,同时会把接收到的响应拼装起来发回到客 户端。
- 保证集群总是可读写
- MongoDB通过多种途径来确保集群的可用性和可靠性。
- 将MongoDB的分片和复制功能结合使用,在确保数据分片到多台服务器的同时,也确保了每分数据都有 相应的备份,这样就可以确保有服务器换掉时,其他的从库可以立即接替坏掉的部分继续工作。
- 使集群易于扩展
当系统需要更多的空间和资源的时候,MongoDB使我们可以按需方便的扩充系统容量。
架构
组件 | 说明 |
Config Server | 存储集群所有节点、分片数据路由信息。默认需要配置3个Config Server节点。 |
Mongos | 提供对外应用访问,所有操作均通过mongos执行。一般有多个mongos节点。数据迁移和数 据自动平衡。 |
Mongod | 存储应用数据记录。一般有多个Mongod节点,达到数据分片目的。 |
Mongos本身并不持久化数据,Sharded cluster所有的元数据都会存储到Config Server,而用户的数据会分散存储 到各个shard。Mongos启动后,会从配置服务器加载元数据,开始提供服务,将用户的请求正确路由到对应的分 片。
当数据写入时,MongoDB Cluster根据分片键设计写入数据。当外部语句发起数据查询时,MongoDB根据数据分布 自动路由至指定节点返回数据。
集群中数据分布
在一个shard server内部,MongoDB会把数据分为chunks,每个chunk代表这个shard server内部一部分数据。 chunk的产生,会有以下两个用途:
- Splitting:当一个chunk的大小超过配置中的chunk size时,MongoDB的后台进程会把这个chunk切分成更小 的chunk,从而避免chunk过大的情况
- Balancing:在MongoDB中,balancer是一个后台进程,负责chunk的迁移,从而均衡各个shard server的负 载,系统初始1个chunk,chunk size默认值64M,生产库上选择适合业务的chunk size是好的。mongoDB会 自动拆分和迁移chunks。
chunk分裂及迁移
随着数据的增长,其中的数据大小超过了配置的chunk size,默认是64M,则这个chunk就会分裂成两个。数据的增长会让chunk分裂得越来越多。这时候,各个shard 上的chunk数量就会不平衡。mongos中的一个组件balancer 就会执行自动平衡。把chunk从 chunk数量多的shard节点挪动到数量少的节点。
chunksize
chunk的分裂和迁移非常消耗IO资源;chunk分裂的时机:在插入和更新,读数据不会分裂。
- 小的chunksize:数据均衡是迁移速度快,数据分布更均匀。数据分裂频繁,路由节点消耗更多资源。
- 大的chunksize:数据分裂少。数据块移动集中消耗IO资源。 适合业务的chunksize是好的。
chunkSize 对分裂及迁移的影响
- MongoDB 默认的 chunkSize 为64MB,如无特殊需求,建议保持默认值;
- chunkSize 会直接影响到 chunk 分 裂、迁移的行为。 chunkSize 越小,chunk 分裂及迁移越多,数据分布越均衡;反之,chunkSize 越大,chunk 分裂及迁移会更 少,但可能导致数据分布不均。
- chunk 自动分裂只会在数据写入时触发,所以如果将 chunkSize 改小,系统需要一定的时间来将 chunk 分裂到指定的大小。
- chunk 只会分裂,不会合并,所以即使将 chunkSize 改大,现有的 chunk 数量不会减少,但 chunk 大小会随 着写入不断增长,直到达到目标大小。
集群搭建
创建3个config节点
docker create --name configsvr01 -p 17000:27019 -v mongoconfigsvr-data01:/data/configdb mongo --configsvr --replSet "rs_configsvr" --bind_ip_all
docker create --name configsvr02 -p 17001:27019 -v mongoconfigsvr-data02:/data/configdb mongo --configsvr --replSet "rs_configsvr" --bind_ip_all
docker create --name configsvr03 -p 17002:27019 -v mongoconfigsvr-data03:/data/configdb mongo --configsvr --replSet "rs_configsvr" --bind_ip_all
启动服务
docker start configsvr01 configsvr02 configsvr03
进去容器进行操作
docker exec -it configsvr01 /bin/bash
mongo 192.168.130.128:17000
集群初始化
rs.initiate({
_id: "rs_configsvr",
configsvr: true,
members: [
{ _id: 0, host: "192.168.130.128:17000" },
{ _id: 1, host: "192.168.130.128:17001" },
{ _id: 2, host: "192.168.130.128:17002" }
]
})
创建2个shard集群,每个集群都有3个数据节点
集群一
docker create --name shardsvr01 -p 37000:27018 -v mongoshardsvr-data-01:/data/db mongo --replSet "rs_shardsvr1" --bind_ip_all --shardsvr
docker create --name shardsvr02 -p 37001:27018 -v mongoshardsvr-data-02:/data/db mongo --replSet "rs_shardsvr1" --bind_ip_all --shardsvr
docker create --name shardsvr03 -p 37002:27018 -v mongoshardsvr-data-03:/data/db mongo --replSet "rs_shardsvr1" --bind_ip_all --shardsvr
集群二
docker create --name shardsvr04 -p 37003:27018 -v mongoshardsvr-data-04:/data/db mongo --replSet "rs_shardsvr2" --bind_ip_all --shardsvr
docker create --name shardsvr05 -p 37004:27018 -v mongoshardsvr-data-05:/data/db mongo --replSet "rs_shardsvr2" --bind_ip_all --shardsvr
docker create --name shardsvr06 -p 37005:27018 -v mongoshardsvr-data-06:/data/db mongo --replSet "rs_shardsvr2" --bind_ip_all --shardsvr
启动容器
docker start shardsvr01 shardsvr02 shardsvr03
docker start shardsvr04 shardsvr05 shardsvr06
进去容器执行
docker exec -it shardsvr01 /bin/bash
初始化集群
mongo 192.168.130.128:37000
rs.initiate({
_id : "rs_shardsvr1",
members: [
{ _id: 0, host: "192.168.130.128:37000" },
{ _id: 1, host: "192.168.130.128:37001" },
{ _id: 2, host: "192.168.130.128:37002" }
]
})
初始化集群二
mongo 192.168.130.128:37003
rs.initiate({
_id : "rs_shardsvr2",
members: [
{ _id: 0, host: "192.168.130.128:37003" },
{ _id: 1, host: "192.168.130.128:37004" },
{ _id: 2, host: "192.168.130.128:37005" }
]
})
创建mongos节点容器,需要指定config服务
docker create --name mongos -p 10000:27017 --entrypoint "mongos" mongo -configdb rs_configsvr/192.168.130.128:17000,192.168.130.128:17001,192.168.130.128:17002 -bind_ip_all
启动容器
docker start mongos
进入容器执行
docker exec -it mongos bash
mongo 192.168.130.128:10000
添加shard节点
sh.addShard("rs_shardsvr1/192.168.130.128:37000,192.168.130.128:37001,192.168.130.128:37002") sh.addShard("rs_shardsvr2/192.168.130.128:37003,192.168.130.128:37004,192.168.130.128:37005")
启用分片
sh.enableSharding("test")
设置分片规则,按照_id的hash进行区分
sh.shardCollection("test.user", {"_id": "hashed" })
插入测试数据
use test
for (var i = 1; i <= 1000; i=i+1){db.user.insert({'id':i , 'name': "name_"+i})}
集群操作(在mongos中执行)
use config
db.databases.find() #列出所有数据库分片情况
db.collections.find() #查看分片的片键 sh.status() #查询分片集群的状态信
db.user.count() #查看文档数量
分别在2个shard集群中查询数据进行测试
db.user.count()
可以看到分片成功