这里的大量,不是指数据单元的大小,而是key-value对的数量庞大。
Redis 一直被当作是一个小巧灵活的瑞士军刀在用,虽然其通过条件化的 snapshot 和 appendonlylog 等方式在一定程度上保证了数据的可靠性,但利用Redis进行大量数据的存储还是比较少。下面的三篇文章,是用Redis进行大量数据存储的应用和测试。还不敢用Redis来放大量数据的同学,可以先壮壮胆。
- redis 运维实际经验纪录之一:三千万数据,算不上海量,但也算是大量了,大数据量下的运维经验,值得学习。
- 200,000,000 Keys in Redis 2.0.0-rc3:数了一下零,2个亿数据。
- 1,250,000,000 Key/Value Pairs in Redis 2.0.0-rc3 on a 32GB Machine:同一个作者的第二篇测试文章,12.5亿数据。好吧,这个确实海量。