1 为什么用到ELK

ELK 可以单节点部署,也可以集群化部署的日志分析工具

一般我们需要进行日志分析场景:直接在日志文件中 grep、awk 就可以获得自己想要的信息但在规模较大的场景中,此方法效率低下,面临问题包括日志量太大如何归档、文本搜索检索太慢怎么办、如何多维度查询。需要集中化的日志管理,所有服务器上的日志收集汇总。常见解决思路是建立集中式日志收集系统,将所有节点上的日志统一收集,管理,访问。

一般大型系统是一个分布式部署的架构,不同的服务模块部署在不同的服务器上,问题出现时,大部分情况需要根据问题暴露的关键信息,定位到具体的服务器和服务模块,构建一套集中式日志系统,可以提高定位问题的效率。

一个完整的集中式日志系统,需要包含以下几个主要特点:

收集——能够采集多种来源的日志数据

传输——能够稳定的把日志数据传输到中央系统

存储——如何存储日志数据

分析——可以支持UI分析

警告——能够提供错误报告,监控机制ELK提供了一整套解决方案,并且都是开源软件,之间互相配合使用,完美衔接,高效的满足了很多场合的应用。目前主流的一种日志系统。

2 ELK 简介

ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash , Kibana,它们都是开源软件。新增了一个FileBeat 日志收集工具(与 Logstash 结合,而FileBeat 一般会安装在被监控端),它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集日志后传输给 Logstash,官方也推荐此工具。

Elasticsearch , Logstash , Kibana三者共同完成日志的收集,分析展示,存储功能

Elasticsearch 是个开源分布式搜索引擎,提供搜集、分析、存储数据三大功能。它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。Elasticsearch 是一个核心的组件。

Logstash 主要是用来日志的搜集、分析、过滤日志的工具,支持大量的数据获取方式。一般工作方式为C/S架构,Client 端安装在需要收集日志的主机上,Server端负责将收到的各节点日志进行过滤、修改等操作在一并发往 Elasticsearch上去。其的作用是桥梁,各节点的FileBeat 将日志收集汇总到服务器节点的Logstash 进行初步的搜索,分析,过滤。再将加工好的日志信息发往 Elasticsearch 进行最终检索。

Kibana 也是一个开源和免费的工具,Kibana可以为Logstash和 ElasticSearch提供的日志分析友好的 Web界面,可以帮助汇总、分析和搜索重要数据日志。其作用是一个Web界面。

Filebeat隶属于Beats。目前 Beats包含四种工具:

  • Packetbeat(搜集网络流量数据)
  • Topbeat(搜集系统、进程和文件系统级别的CPU和内存使用情况等数据)
  • Filebeat(搜集文件数据)
  • Winlogbeat(搜集Windows事件日志数据)

elk分析查看mysql日志 elk处理日志_elk分析查看mysql日志

3 实验部署

本次部署的是filebeats(客户端),logstash+elasticsearch+kibana(服务端)组成的架构。

业务请求到达nginx-server机器上的Nginx;Nginx响应请求,并在 access.log文件中增加访问记录; FileBeat搜集新增的日志,通过LogStash 的5044端口上传日志;LogStash 将日志信息扶过本机的9200端口传入到ElasticSerach;搜索日志的用户通过浏览器访问Kibana,服务器端口是5601;Kibana通过9200端口访问ElasticSerach;

ELK 组件无法通过命令进行日志的分析,运维同学以及用户需要通过 Kibana 的Web展示页面进行日志的分析和展示

elk分析查看mysql日志 elk处理日志_elk分析查看mysql日志_02

实验环境:

本次部署的是单点ELK用了两台机器(CentOS-7.5)

ELK服务端:10.0.0.110

Nginx客户端:10.0.0.111

3.1 准备工作

配置好网络 Yum 源

cd /etc/yum.repos.d
wget http://mirrors.aliyun.com/repo/Centos-7.repo
wget http://mirrors.aliyun.com/repo/epel-7.repo

关闭防火墙:systemctl stop(disable) firewalld

关闭SELinux:SELINUX=disabled

hostnamectl set-hostname elk-server
hostnamectl set-hostname nginx-server

systemctl disable --now firewalld
sed -i.bak -r '/^SELINUX/s@(.*)=(.*)@\1=disabled@g' /etc/selinux/config

3.2 下载并安装软件包

mkdir -p /elk ; cd /elk
#wget -c https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.0.0-linux-x86_64.tar.gz
#wget -c https://artifacts.elastic.co/downloads/kibana/kibana-7.0.0-linux-x86_64.tar.gz
#wget -c https://artifacts.elastic.co/downloads/logstash/logstash-7.0.0.tar.gz

wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.2.3.tar.gz
wget https://artifacts.elastic.co/downloads/logstash/logstash-6.2.3.tar.gz 
wget https://artifacts.elastic.co/downloads/kibana/kibana-6.2.3-linux-x86_64.tar.gz

全部解压缩,并复制到/usr/local/目录下

cd /elk
for file in * ;do tar -xvf $file -C /usr/local/ ;done
ln -sv /usr/local/elasticsearch-6.2.3 /usr/local/elasticsearch
ln -sv /usr/local/kibana-6.2.3-linux-x86_64 /usr/local/kibana
ln -sv /usr/local/logstash-6.2.3 /usr/local/logstash

chown -R root.root /usr/local/elasticsearch-6.2.3
chown -R root.root /usr/local/kibana-6.2.3-linux-x86_64
chown -R root.root /usr/local/logstash-6.2.3

3.3 安装JDK(Java)环境工具

yum install -y java-1.8*

3.4 配置elasticsearch

1)新建elasticsearch用户并启动(用elasticsearch普通用户启动)

useradd -c "elasticsearch user" elasticsearch
chown -R elasticsearch.elasticsearch /usr/local/elasticsearch-6.2.3/
su - elasticsearch
cd /usr/local/elasticsearch-6.2.3/
./bin/elasticsearch -d

2)查看进程是否启动成功(等待一下)

netstat -antlp | grep java
#查看是否拥有 9200 端口

elk分析查看mysql日志 elk处理日志_linux_03

3)若出现错误可以查看日志

cat /usr/local/elasticsearch-6.2.3/logs/elasticsearch.log

4)测试是否可以正常访问

curl localhost:9200

elk分析查看mysql日志 elk处理日志_elasticsearch_04

3.5 配置 logstash

Logstash收集nginx日志之使用grok过滤插件解析日志,grok作为一个logstash的过滤插件,支持根据模式解析文本日志行,拆成字段。

1)logstash 中 grok 的正则匹配

cd /usr/local/logstash-6.2.3/
vim vendor/bundle/jruby/2.3.0/gems/logstash-patterns-core-4.1.2/patterns/grok-patterns
#最后行添加以下即可
# Nginx log
WZ ([^ ]*)
NGINXACCESS %{IP:remote_ip} \- \- \[%{HTTPDATE:timestamp}\] "%{WORD:method} %{WZ:request} HTTP/%{NUMBER:httpversion}" %{NUMBER:status} %{NUMBER:bytes} %{QS:referer} %{QS:agent} %{QS:xforward}

2)创建logstash 配置文件

vim /usr/local/logstash-6.2.3/default.conf
#数据的入口
input {
    beats {
        port => "5044"
    }
}
#数据过滤
filter {
    grok {
        match => { "message" => "%{NGINXACCESS}" }
    }
    geoip {
        #nginx客户端IP
        source => "10.0.0.111"
    }
}
#输出配置为本机的9200端口,这是elasticsearch服务的监听端口
output {
    elasticsearch {
        hosts => ["127.0.0.1:9200"]
    }
}

3)进入/usr/local/logstash-6.2.3/目录下,并执行下列命令

cd /usr/local/logstash-6.2.3/
#后台启动logstash
nohup bin/logstash -f default.conf &
#查看启动日志
tailf nohup.out
#查看端口是否启动
netstat -antlp | grep 5044

elk分析查看mysql日志 elk处理日志_数据库_05

3.6 配置Kibana

1)打开Kibana配置文件/usr/local/kibana-6.2.3-linux-x86_64/config/kibana.yml,找到下面这行并修改.

vim /usr/local/kibana-6.2.3-linux-x86_64/config/kibana.yml
#server.host: "localhost"
修改为:
server.host: "10.0.0.110"

#这样其他电脑就能用浏览器访问kibana的服务了

2)进入Kibana的目录:cd /usr/local/kibana-6.2.3-linux-x86_64

cd /usr/local/kibana-6.2.3-linux-x86_64
#执行启动命令
nohup bin/kibana &
#查看启动日志
tail -f nohup.out
#查看端口是否启动
netstat -antlp | grep 5601

elk分析查看mysql日志 elk处理日志_elk_06

3)测试

在浏览器访问 10.0.0.110:5601;能够访问到该页面即 ELK 服务器端部署完成

elk分析查看mysql日志 elk处理日志_elk分析查看mysql日志_07

到此。ELK 部署完成

3.7 Nginx 客户端配置

1)yum 安装二进制 nginx 软件包

yum install -y nginx
systemctl enable --now nginx

2)下载 filebeat 并解压到 /usr/local

wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-6.2.3-linux-x86_64.tar.gz
tar -xvf filebeat-6.2.3-linux-x86_64.tar.gz -C /usr/local/

3)打开文件/usr/local/filebeat-6.2.3-linux-x86_64/filebeat.yml,找到如下位置:修改三处

vim /usr/local/filebeat-6.2.3-linux-x86_64/filebeat.yml
enable: false										#修改为true
paths:/var/log/*.log						#修改为/var/log/nginx/*.log
#output.elasticsearch:					#将此行注释掉
#hosts: ["localhost:9200"]			#将此行注释掉
output.logstash:								#取消此行注释
hosts: ["10.0.0.110:5044"]			#取消此行注释并修改地址为ELK服务器地址

4)切换到/usr/local/filebeat-6.2.3-linux-x86_64目录下

cd /usr/local/filebeat-6.2.3-linux-x86_64
#后台启动filebeat
nohup ./filebeat -e -c filebeat.yml &
#查看日志
tail -f nohup.out

5)通过浏览器多访问几次 nginx服务,这样能多制造一些访问日志,访问地址: http://10.0.0.111

while true ; do curl http://10.0.0.111 ;done

6)访问Kibana: https://10.0.0.110:5601,点击左上角的Discover,就可以看到访问日志已经被 ELK 搜集了,然后按照下列步骤完成设置

  • 输入logstash-*,点击”Next step”
  • 选择Time Filter,再点击“Create index pattern“
  • 然后可自行创建日志内容查询规则

elk分析查看mysql日志 elk处理日志_数据库_08

elk分析查看mysql日志 elk处理日志_数据库_09

elk分析查看mysql日志 elk处理日志_数据库_10

可以在Search进行检索、分组日志信息。