本篇分享最近把ElasticSearch当作时序数据库来用的心得。
• 需求
需求是这样的:提供一个后台,选用户画像标签(多选),点确认后弹出“选出了xxx个用户”,再继续点就把用户dump出来、推送消息。现在要做这个后台的数据仓库层。
详细分析一下需求:
1. 我们的用户画像走流式计算,每秒大量更新,所以
对插入/更新性能要求很高。
2. 查询条件翻译成SQL就是类似 select count(*) from `table` where (`tags` like '%tag1%') and (`tags` like '%tag2%') and (`tags` like '%tag3%') and ...,
常规数据库算起来比较慢。
需要一个数据仓库,支持大量插入/更新、大量导出、快速多字符串匹配查询。
于是一开始的选型是用
时序数据库InfluxDB。这里贴一张截至当前的时序数据库排名(2017-03
popularity ranking of time Series DBMS )。
很不幸的是,单机版InfluxDB在压测环节爆了,顶不住插入/更新的量。而分布式InfluxDB又闭源了。接下来尝试了一下ElasticSearch,于是就有了这篇文章了。
• ES能干这个事么?
还真能。
1. 插入/更新性能高
ES通过
bulk接口,可以做到批处理,拥有相当高的插入/更新性能。
2. 查询效率高
ES的
text类型的数据在插入/更新时,会被默认分词器把空格隔开的字符串做
分词。在处理如 where (`tags` like '%tag1%') and (`tags` like '%tag2%') and (`tags` like '%tag3%') and ... 这样的查询条件时,用的是
倒排索引算法(
Inverted index - Wikipedia)而不是字符串匹配,效率极高。
3. 导出效率高
用ES的
scroll接口可以做到这么一件事:
1)进行一个查询,指定翻页大小、本次查询的索引保存时间,获取一个scroll_id;
2)通过scroll_id不断地翻页。可以实现大批量导出一个查询的所有数据,不需要重复计算。
4. 高可用与横向扩展能力
就不赘述了。
• 实现与优化
1. 用了3个Node组成的集群,全SSD。3个刚好是满足高可用的最小Master Node数量。每个Node的内存开到31G。
2. ES前面顶一层Logstash,Logstash开一个http-input和elasticsearch-output,用HTTP Keep-Alive来接流量。关键配置有:
1)input.http.threads默认是4,要开大;
2)output.elasticsearch.action => "update",output.elasticsearch.doc_as_upsert => true,这样可实现upsert操作;
3)pipeline.workers跟pipeline.output.workers开到跟核数一致;
4)pipeline.batch.size跟output.elasticsearch.flush_size适度开大。
3. 整个流程是数据怼Logstash、Logstash怼ES,所以会有ES的数据延后几秒才更新的情况,这样可能会引起一些问题,需要务必留意。
4. ES5.0取消了ttl,所以数据的过期要另外处理。
5. ES的scroll查询中,通过配置_source来提取部分字段,可以大幅降低网络I/O。
• 一些惊喜
我们往ES里存的标签是没去重的原始数据,就是说一个用户的标签可能长这样:
A B A A A C D A
而ES本质上是个搜索引擎,
使用默认的BM25算法搜索用户,排在前面的就自然是重度用户。
非常不错。
• 总结
ElasticSearch除了用来干搜索、运维监控之外,还能用来当时序数据库。在这个Case里,算是
对InfluxDB等时序数据库产品做降维打击了,真乃居家旅行、杀人越货的神器。