1. Logstash简介
Logstash 是ES技术栈中的一个技术,它是一个数据采集引擎,可以从数据库采集数据到ES中。我们可以通过设置自增id主键或者时间来控制数据的自动同步,这个ID或者时间就是用于给Logstash进行识别的。
id:假设现在有1000条数据,Logstatsh识别后会进行一次同步,同步完会记录这个id为1000,以后数据库新增数据,那么id会一直累加,Logstatsh会有定时任务,发现有id大于1000了,则增量加入到es中
时间:同理,一开始同步1000条数据,每条数据都有一个字段,为time,初次同步完毕后,记录这个time,下次同步的时候进行时间比对,如果有超过这个时间的,那么就可以做同步,这里可以同步新增数据,或者修改元数据,因为同一条数据的时间更改会被识别,而id则不会。
2.安装Logstash
2.1 下载地址
下载地址:https://www.elastic.co/cn/downloads/past-releases/logstash-6-4-3
注意:使用Logstash的版本号与es版本号需要保持一致
2.2 插件-logstash-input-jdbc
本插件用于同步,ES6.x起自带,这个是集成在Logstash中的。所以直接配置同步数据库的配置文件即可。
2.3.创建索
同步数据到ES中,前提锝要有索引,这个需要手动去创建,名字随意,比如:fooie_emp
3.数据同步配置
3.1 将logstash拷贝到usr/local目录下
mv logstash-5.4.1 /usr/local/
3.2 创建sync目录,用于存放同步信息
mkdir sync
3.3 拷贝驱动到sync目录下
cp /soft/es/mysql-connector-java-5.1.7-bin.jar /usr/local/logstash-5.4.1/sync/
3.4 创建emp.sql
select emp_no,birth_date,first_name,last_name,gender,hire_date
from employees
where hire_date>=:sql_last_value
3.5 创建logstash-db-sync.conf配置文件
vim logstash-db-sync.conf
具体配置如下
input {
jdbc {
# 设置 MySql/MariaDB 数据库url以及数据库名称
jdbc_connection_string => "jdbc:mysql://192.168.131.132:3306/employees?useUnicode=true&characterEncoding=UTF-8&autoReconnect=true"
# 用户名和密码
jdbc_user => "root"
jdbc_password => "123456"
# 数据库驱动所在位置,可以是绝对路径或者相对路径
jdbc_driver_library => "/usr/local/logstash-5.4.1/sync/mysql-connector-java-5.1.7-bin.jar"
# 驱动类名
jdbc_driver_class => "com.mysql.jdbc.Driver"
# 开启分页
jdbc_paging_enabled => "true"
# 分页每页数量,可以自定义
jdbc_page_size => "1000"
# 执行的sql文件路径
statement_filepath => "/usr/local/logstash-5.4.1/sync/emp.sql"
# 设置定时任务间隔 含义:分、时、天、月、年,全部为*默认含义为每分钟跑一次任务
schedule => "* * * * *"
# 索引类型
# type => "_doc"
type => "knowledge" # ES5.4 使用该版本
# 是否开启记录上次追踪的结果,也就是上次更新的时间,这个会记录到 last_run_metadata_path 的文件
use_column_value => true
# 记录上一次追踪的结果值
last_run_metadata_path => "/usr/local/logstash-5.4.1/sync/track_time"
# 如果 use_column_value 为true, 配置本参数,追踪的 column 名,可以是自增id或者时间
tracking_column => "hire_date"
# tracking_column 对应字段的类型
tracking_column_type => "timestamp"
# 是否清除 last_run_metadata_path 的记录,true则每次都从头开始查询所有的数据库记录
clean_run => false
# 数据库字段名称大写转小写
lowercase_column_names => false
}
}
output {
elasticsearch {
# es地址
hosts => ["127.0.0.1:9200"]
# 同步的索引名
index => "fooie_emp"
# 设置_docID和数据相同
document_id => "%{id}"
}
# 日志输出
stdout {
codec => json_lines
}}