ELK---日志分析系统
- 一.ELK的组件及其组件功能
- 二.ELK工作原理
- 三.elasticsearch介绍
- 3.1 集群(cluster)
- 3.2 节点( node)
- 3.3 索引(index)
- 3.4 类型( type)
- 3.5 文档( document)
- 3.6 分片和副本(shards & replicas)
- 四.logstash介绍
- 4.1 logStash的主要组件
- 4.2 LogStash主机分类
- 五.Kibana主功能
- 六.配置ELK日志分析系统
一.ELK的组件及其组件功能
Elasticsearch:搜索引擎,对格式化后的数据进行索引和存储
Logstash:收集日志,格式化日志,将日志格式化(Logstash)并输出到Elasticsearch
Kibana:前端数据的展示
Elasticsearch是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。
Logstash是一个完全开源的工具,它可以对你的日志进行收集、过滤,
并将其存储,供以后使用(如,搜索)。
Kibana也是一个开源和免费的工具,Kibana可以为Logstash 和 ElasticSearch提供友好的日志分析web界面,可以帮助您汇总、分析和搜索重要数据日志。
二.ELK工作原理
【APPServer集群】–》》【logstash Agent 采集器】–》》【ElasticSearch Cluster】–》》【Kibana server】–》》【Browser】
Logstash收集AppServer产生的Log,并存放到ElasticSearch集群中,而Kibana则从ES集群中查询数据生成图表,再返回给Browser。简单来说,进行日志处理分析,一般需要经过以下几个步骤:
1.将日志进行集中化管理(beats)
beats包含四种工具:
Packetbeat (搜集网络流量数据)
Topbeat(搜集系统、进程和文件系统级别的CPU和内存使用情况等数据)
Filebeat(搜集文件数据)ELKelasticsearch logstash kiban
EFLK (kafka)
winlogbeat(搜集windows事件日志数据)
2.将日志格式化( logstash)
3.对格式化后的数据进行索引和存储(elasticsearch)
4.前端数据的展示( kibana)
三.elasticsearch介绍
Elasticsearch是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java开发的,并作为Apache许可条款下的开放源码发布,是第二流行的企业搜索引擎。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。(副本和分片机制)
3.1 集群(cluster)
一个集群就是由一个或多个节点组织在一起,它们共同持有整个的数据,并一起提供索引和搜索功能。其中一个节点为主节点,
这个主节点是可以通过选举产生的,并提供跨节点的联合索引和搜索的功能。集群有一个唯一性标示的名字,默认是elasticsearch,
集群名字很重要,每个节点是基于集群名字加入到其集群中的。因此,确保在不同环境中使用不同的集群名字。一个集群可以只有一个节点。强烈建议在配置elasticsearch时,配置成集群模式。
es具有集群机制,节点通过集群名称加入到集群中,同时在集群中的节点会有一个自己的唯一身份标识(自己的名称)
3.2 节点( node)
节点就是一台单一的服务器,是集群的一部分,存储数据并参与集群的索引和搜索功能。像集群一样,节点也是通过名字来标识,
默认是在节点启动时随机分配的字符名。当然,你可以自己定义。该名字也很重要,在集群中用于识别服务器对应的节点。
节点可以通过指定集群名字来加入到集群中。默认情况,每个节点被设置成加入到elasticsearch集群。如果启动了多个节点
假设能自动发现对方,他们将会自动组建一个名为elasticsearch的集群。
3.3 索引(index)
一个索引就是一个拥有几分相似特征的文档的集合。比如说,你可以有一个客户数据的索引,另一个产品目录的索引,还有一个订单数据的
索引。一个索引由一个名字来标识(必须全部是小写字母的),并且当我们要对对应于这个索引中的文档进行系引、搜索、更新和删除的时
候,都要使用到这个名字。在一个集群中,如果你想,可以定义任意多的索引。
索引相当于关系型数据的库
3.4 类型( type)
在一个索引中,你可以定义一种或多种类型。一个类型是你的索引的一个逻辑上的分类/f分区,其语意完全由你来定。通常会为具有一组共同字段的文档定义一个类型。比如说,我们假设你运营一个博客平台并且将你所有的数据存储到一个索引中。
在这个索引中,你可以为用户数据定义一个类型,为博客数据定义另一个类型,当然,也可以为评论数据定义另一个类型。
类型相当于关系型数据的表
3.5 文档( document)
一个文档是一个可被索引的基础信息单元。比如,你可以拥有某一个客户的文档,某一个产品的一个文档,当然,也可以拥有
某个订单的一个文档。文档以JSON (Javascript Object
Notation)格式来表示,而JSON是一个到处存在的互联网数据交互格式。
在一个index/type里面,只要你想,你可以存储任意多的文档。注意,虽然一个文档在物理上位于一个索引中,实际上一个文档必须在一个索引内被索引和分配一个类型。
●文档相对于关系型数据库的列。
MysQL ES
库 索引
表 类型
列 文档
3.6 分片和副本(shards & replicas)
在实际情况下,索引存储的数据可能超过单个节点的硬件限制。如一个10亿文档需1TB空间可能不适合存储在单个节点的磁盘上,或者从单个节点搜索请求太慢了。为了解决这个问题,elasticsearch提供将索引分成多个分片的功能。当在创建索引时,可以定义想要分片的数量。每一个分片就是一个全功能的独立的索引,可以位于集群中任何节点上。
●分片的两个最主要原因: a.水平分割扩展,增大存储量 b.分布式并行跨分片操作,提高性能和吞吐量(I/O)
分布式分片的机制和搜索请求的文档如何汇总完全是有elasticsearch控制的,这些对用户而言是透明的。
网络问题等等其它问题可以在任何时候不期而至,为了健壮性,强烈建议要有一个故障切换机制,无论何种故障以防止分片或者节点不可用。
为此,elasticsearch让我们将索引分片复制一份或多份,称之为分片副本或副本。
副本也有两个最主要原因: a,高可用性,以应对分片或者节点故障。出于这个原因,分片副本要在不同的节点上。
b. 增大吞吐量,搜索可以并行在所有副本上执行。
总之,每个索引可以被分成多个分片。一个索引也可以被复制0次(意思是没有复制)或多次。一旦复制了,每个索引就有了主分片(作为复制源的原来的分片)和复制分片(主分片的拷贝)之别。分片和副本的数量可以在索引创建的时候指定。在索引创建之后,你可以在任何时候动态地改变副本的数量,但是你事后不能改变分片的数量。
默认情况下,Elasticsearch中的每个索引被分片5个主分片和1个副本,这意味着,如果你的集群中至少有两个节点,你的索引将会有5个主分片
和另外5个副本分片(1个完全拷贝),这样的话每个索引总共就有10个分片。
四.logstash介绍
Logstash出JRuby语言编写,基于消息(message-based)的简单架构,并运行在Java虚拟机(JWM)上。不同于分离的代理端(agnt)或主机端(server),LogStash可配置单一的代理端(agent)与其它开源软件结合,以实现不同的功能。
Logstash的理念很简单,它只做3件事情:
●Collect:数据输入(收集)
●Enrich:数据加工,如过滤,改写等
●Transport:数据输出(被其他模块进行调用)
4.1 logStash的主要组件
●shipper:日志收集者
负责监控本地日志文件的变化,及时把日志文件的最新内容收集起来。通常,远程代理端(agent)只需要运行这个组件即可
●Indexer:日志存储者。负责接收日志并写入到本地文件。
●Broker:日志Hub。负责连接多个shipper和多个Indexer
●Search and storage:允许对事件进行搜索和存储;
●web Interface:基于web的展示界面
正是由于以上组件在LogStash架构中可独立部署,才提供了更好的集群扩展性
4.2 LogStash主机分类
●代理主机(agent host):作为事件的传递者(shipper),将各种日志数据发送至中心主机;只需运行Logstash代理( agent)程序;
●中心主机(central host):可运行包括中间转发器(Broker)、索引器(Indexer)、搜索和存储器(Search andstorage)
●web界面端(web Interface)在内的各个组件,以实现对日志数据的接收,处理和存储
五.Kibana主功能
1、Elasticsearch无缝之集成。Kibana架构为slasticsearch定制,可以将任何结构化和非结构化数据加入Elasticsearch索引。Kibana还充分利用了Elasticsearch强大的搜索和分析功能。
2、整合你的数据。Kibana能够更好地处理海量数据,并据此创建柱形图、
折线图、散点图、直方图、饼图和地图。
3、复杂数据分析。Kibana提升了Elasticsearch分析能力,能够更加智能地分析数据,执行数学转换并且根据要求对数据切割分块。
4、让更多团队成员受益。强大的数据库可视化接口让各业务岗位都能够从数据集合受益。
5、接口灵活,分享更容易。使用Kibana可以更加方便地创建、保存、分享数据,并将可视化数据快速交流。6、配置简单。Kibana的配置和启用非常简单,用户体验非常友好。Kibana自带web服务器,可以快速启动运行。
7、可视化多数据源。Kibana可以非常方便地把来自Logstash、ES-Hadoop
Beats或第三方技术的数据整合到Elasticsearch,支
持的第三方技术包括Apache Flume、Fluentd等。
8、简单数据导出。Kibana可以方便地导出感兴趣的数据,与其它数据集合并融合后快速建模分析,发现新结果。
六.配置ELK日志分析系统
########案例环境:配置ELK日志分析系统#####
配置和安装ELK日志分析系统,安装集群方式,2个elasticsearch节点,并监控apache服务器日志
主机 操作系统 主机名 IP地址 主要软件
服务器 Centos7.4 node1 192.168.80.4 ElasticsearchKibana
服务器 Centos7.4 node2 192.168.80.5 Elasticsearch
服务器 Centos7.4 apache 192.168.80.3 Logstash Apache
node1服务器配置elasticsearch环境
[ root@node1 ~]# hostnamectl set-hostname node1
echo -e "192.168.80.4 node1\n192.168.80.5 node" >> /etc/hosts
[root@node1 ~]# java -version
tar zxvf jdk-8u91-linux-x64.tar.gz -C /usr/local/
cd /usr/local/
mv jdk1.8.0_91/ jdk
vim /etc/profile
export JAVA_HOME=/usr/local/jdk
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
source /etc/profile
java -version
部署elasticsearch服务
上传elasticsearch-5.5.0.rpm 至 /opt目录下解压
rpm -ivh elasticsearch-5.5.0.rpm
systemctl daemon-reload
systemctl enable elasticsearch.service
cd /etc/elasticsearch/
cp elasticsearch.yml elasticsearch.yml.bak
vim elasticsearch.yml
17/ cluster.name: my-elk-cluster
####集群名字
23/ node.name: node1
####节点名宁字
33/ path.data: /data/elk_data
####数据存放路径
37/ path. logs: /var/log/elasticsearch/
####日志存放路径
43/ bootstrap.memory_lock: false
####锁定物理内存地址,防止es内存被交换出去,也就是避免es使用swap交换分区,频繁的交换,会导致Ios变高(性能测试:每秒的读写次数)。
55/ network.host: 0.0.0.0
####提供服务绑定的IP地址,0.0.0.0代表所有地址
59/ http.port: 9200
####侦听端口为9200
68/ discoveryp zen.ping.unicast.hosts:["node1", "node2"]
####集群发现通过单播实现
单播”
grep -v "^#" /etc/elasticsearch/elasticsearch.yml
mkdir -p /data/elk_data
chown elasticsearch:elasticsearch /data/elk_data/
systemctl start elasticsearch.service #检查端口9200要等一会
cd /opt
scp elasticsearch-5.5.0.rpm 192.168.80.5:/opt #远程拷贝
node2服务器配置elasticsearch环境
[ root@node2 ~]# hostnamectl set-hostname node2
echo -e "192.168.80.4 node1\n192.168.80.5 node2" >> /etc/hosts
tar zxf jdk-8u91-linux-x64.tar.gz -C /usr/local/
cd /usr/local/
vim /etc/profile
export JAVA_HOME=/usr/local/jdk
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
source /etc/profile
java -version
node2服务器配置elasticsearch服务
rpm -ivf elasticsearch-5.5.0.rpm
systemctl daemon-reload
systemctl enable elasticsearch.service
cd /etc/elasticsearch/
cp elasticsearch.yml elasticsearch.yml.bak
vim elasticsearch.yml
17/ cluster.name: my-elk-cluster
####集群名字
23/ node.name: node2
####节点名宁字
33/ path.data: /data/elk_data
####数据存放路径
37/ path. logs: /var/log/elasticsearch/
####日志存放路径
43/ bootstrap.memory_lock: false
####锁定物理内存地址,防止es内存被交换出去,也就是避免es使用swap交换分区,频繁的交换,会导致Ios变高(性能测试:每秒的读写次数)。
55/ network.host: 0.0.0.0
####提供服务绑定的IP地址,0.0.0.0代表所有地址
59/ http.port: 9200
####侦听端口为9200
68/ discoveryp zen.ping.unicast.hosts:["node1", "node2"]
####集群发现通过单播实现
单播”
grep -v "^#" /etc/elasticsearch/elasticsearch.yml
mkdir -p /data/elk_data
chown elasticsearch:elasticsearch /data/elk_data/
systemctl start elasticsearch.service #检查端口9200要等一会
查看节点信息:
查看健康状态
http://192.168.80.4:9200/_cluster/health?pretty
http://192.168.80.5:9200/_cluster/health?pretty
查看集群状态信息
【安装elasticsearch-head插件】上述查看集群的方式,及其不方便,我们可以通过安装elasticsearch-head插件后,来管理集群
####安装node-v8.2.1####
登录node1机机上传 node-v8.2.1.tar.gz到/opt
cd /opt
tar xzf node-v8.2.1.tar.gz
cd node-v8.2.1/
./configure
make -j3
make install
####安装phantomjs####
上传phantomjs-2.1.1-linux-x86_64.tar.bz2 至 /opt目录下解压
tar xjf phantomjs-2.1.1-linux-x86_64.tar.bz2 -C /usr/local/src/
[root@node1 ~]# cd /usr/local/src/phantomjs-2.1.1-linux-x86_64/bin
[root@node1 bin]# ls
phantomjs
[root@node1 bin]# cp phantomjs /usr/local/bin/
####安装elasticsearch-head###
tar xzf elasticsearch-head.tar.gz -C /usr/local/src
cd /usr/local/src/
cd elasticsearch-head/
yum install gcc gcc-c++ make -y
npm install
修改主配置文件
vim /etc/elasticsearch/elasticsearch.yml
http.cors.enabled: true ##开启跨域访问支持,默认为false
http.cors.allow-origin: "*" ##跨域访问允许的域名地址
node2主机也执行以上操作
netstat -antp | grep 9200
[root@node1 opt]# cd /usr/local/src/elasticsearch-head/
[root@node1 elasticsearch-head]# npm run start &
[root@node2 elasticsearch-head]# cd /usr/local/src/elasticsearch-head/
[root@node2 elasticsearch-head]# npm run start &
#排##登录192.168.80.4 node1主机####索引为index-demo,类型为test,可以看到成功创建
[root@node1 elasticsearch]# curl -XPUT 'localhost:9200/index-demo/test/1?pretty&pretty' -H 'content-Type: application/json' -d '{"user":"zhangsan","mesg":"hello word"}'
【安装logstash并做一些日志搜集输出到elasticsearch中】登录主机192.168.80.3关闭防火墙关闭核心防护
yum install -y httpd
systemctl start httpd
cd /usr/local/ && mv jdk1.8.0_91 jdk
vim /etc/profile
export JAVA_HOME=/usr/local/jdk
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
source /etc/profile
java -version
安装logstash
rpm -ivh logstash-5.5.1.rpm
systemctl start logstash.service
systemctl enable logstash.service
ln -s /usr/share/logstash/bin/logstash /usr/local/bin/
5、logstash (Apache)与elasticsearch (node)功能是否正常,做对接测试####Logstash这个命令测试
字段描述解释:
-f 通过这个选项可以指定logstash的配置文件,根据配置文件配置logstash
-e 后面跟着字符串该字符串可以被当做logstash的配置〈如果是" ",则默认使用stdin做为输入、stdout作为输出)
-t 测试配置文件是否正确,然后退出
6、输入采用标准输入输出采用标准输出—登录192.168.80.3 在Apache服务器上
[root@appache bin]# logstash -e 'input { stdin{} } output { stdout{} }'
7、使用rubydebug显示详细输出,codec为一种编解码器
[root@appache bin]# logstash -e 'input { stdin{} } output { stdout{ codec=>rubydebug } }'
####使用logstash将信息写入elasticsearch中####输入输出对接
[root@appache bin]# logstash -e 'input { stdin{} } output { elasticsearch { hosts=>["192.168.80.4:9200"] } }'
配置文件中定义收集系统日志(system)
[root@appache bin]# chmod o+r /var/log/messages
[root@appache bin]# vim /etc/logstash/conf.d/system.conf
input {
file{
path => "/var/log/messages"
type => "system"
start_position => "beginning"
}
}
output {
elasticsearch {
hosts => ["192.168.80.4:9200"]
index => "system-%{+YYYY.MM.dd}"
}
}
node1主机安装kibana
rpm -ivh kibana-5.5.1-x86_64.rpm
cd /etc/kibana/
cp -a kibana.yml kibana.yml.bak
vim kibana.yml
2/ server.port: 5601 #kibana打开的端口
7/ server.host: "0.0.0.0" #kibana侦听的地址
21/ elasticsearch.url: "http: //192.168.80.4:9200" #利和elasticsearch建立联系
30/ kibana .index : ".kibana" #在elasticsearch中添加.kibana索引
systemctl enable kibana.service
systemctl start kibana.service
#####对接Apache主机的Apache 日志文件(访问的、错误的)#####
cd /etc/logstash/conf.d/
touch apache_log.conf
vim apache_log.conf
input {
file{
path => "/etc/httpd/logs/access_log"
type => "access"
start_position => "beginning"
}
file{
path => "/etc/httpd/logs/error_log"
type => "error"
start_position => "beginning"
}
}
output {
if [type] == "access" {
elasticsearch {
hosts => ["192.168.80.4:9200"]
index => "apache_access-%{+YYYY.MM.dd}"
}
}
if [type] == "error" {
elasticsearch {
hosts => ["192.168.80.4:9200"]
index => "apache_error-%{+YYYY.MM.dd}"
}
}
}
logstash -f apache_log.conf