一、Kettle的简单介绍

Kettle是一款国外开源的ETL工具,纯java编写,可以在Windows、Linux、Unix上运行,数据抽取高效稳定。

Kettle 中文名称叫水壶,该项目的主程序员MATT 希望把各种数据放到一个壶里,然后以一种指定的格式流出。

ETL是EXTRACT(抽取)、TRANSFORM(转换)、LOAD(加载)的简称,实现数据从多个异构数据源加载到数据库或其他目标地址,是数据仓库建设和维护中的重要一环,也是工作量较大的一块。

kettle有两种脚本transformation(转换)和Job(作业)

Kettle有三个主要组件:Spoon、Kitchen、Pan

Spoon(汤勺):是一个图形化的界面,可以让我们用图形化的方式开发转换和作业。windows选择Spoon.bat;Linux选择Spoon.sh

Kitchen(厨房):利用Kitchen可以使用命令行调用Job

Pan(盘子):利用Pan可以用命令行的形式调用Trans

Carte(菜单):Carte是一个轻量级的Web容器,用于建立专用、远程的ETL Server。

现在Kettle已经改名为pdi-ce,但是大家还是习惯叫Kettle。本文采用的Kettle版本是pdi-ce-8.3.0.0-371

spark和kettle对比_mysql

二、下载并配置相关环境变量和创建表

kettle官网可以下载,由于文件有1个多G,可能比较慢。因此我把它上传到网盘供大家下载。

链接: https://pan.baidu.com/s/1_VaZmYfSxyWQePL18Wp3gQ

提取码: 4uvm

因为Kettle是基于Java的需要安装JDK并配置环境变量。JDK环境变量配置方法这里就不赘述了。

下面是JDK1.8的网盘地址:

链接: https://pan.baidu.com/s/1Yvn0BY8zJZq0WJSvZ2FiZA

提取码: rdas

下面为了测试方便,采用单机同库不同表演示。

原表:lh_local_news(数据源)

表结构:

spark和kettle对比_mysql_02

新表:target_news(数据接收表)

表结构:

spark和kettle对比_mysql_03

三、启动Spoon

windows下需要运行Spoon.bat,linux下运行Spoon.sh:

spark和kettle对比_mysql_04

如果你的机器配置不高比如内存不够,可能启动会比较慢,成功启动后会出现图形化界面:

spark和kettle对比_mysql_05

双击主对象中的转换:

spark和kettle对比_PHP能调用kettle的job吗_06

会出现转换相关的选项:

spark和kettle对比_PHP能调用kettle的job吗_07

当你遇到启动不出现图形界面,可能有以下原因:

1、路径有中文

2、内存不足

3、环境变量没有设置对

四、配置一个输入

我们创建一个表输入,单击或者拖动“表输入”到右边。这时有边会多一个“表输入”如下图:

spark和kettle对比_mysql_08

双击这个新添加的“表输入”,出现以下配置选项:

spark和kettle对比_Pan_09

可以看到上面数据库连接为空,我们要新建一个连接。点“新建”:

spark和kettle对比_PHP能调用kettle的job吗_10

配置完后需要测试一下,可能会出现以下错误提示,是由于没有添加mysql的jar驱动。

错误连接数据库 [localhost_lanhu_portal_simple] : org.pentaho.di.core.exception.KettleDatabaseException:

Error occurred while trying to connect to the database

Driver class 'org.gjt.mm.mysql.Driver' could not be found, make sure the 'MySQL' driver (jar file) is installed.

org.gjt.mm.mysql.Driver

org.pentaho.di.core.exception.KettleDatabaseException:

Error occurred while trying to connect to the database

Driver class 'org.gjt.mm.mysql.Driver' could not be found, make sure the 'MySQL' driver (jar file) is installed.

org.gjt.mm.mysql.Driver

spark和kettle对比_Pan_11

解决:下载对应mysql数据库版本的java驱动,并拷贝到kettle所在的data-integration\lib目录下,重启spoon。

注意:一定要复制对应的数据库版本,还要重启spoon。不然还是要报错。

我数据库的版本为:Server version: 5.7.23,驱动用了mysql-connector-java-5.1.47才行,甚至5.1.48都不行。

spark和kettle对比_PHP能调用kettle的job吗_12

最后在sql输入框中输入查在来源表中获取数据的sql。

spark和kettle对比_PHP能调用kettle的job吗_13

五、配置一个输出

在输出里面,拖动一个“插入/更新”到右边,选中输入,然后按着“shift”拖动到“插入/更新”

spark和kettle对比_spark和kettle对比_14

并双击“插入/更新”:

spark和kettle对比_spark和kettle对比_15

目标表选择新表target_news。查询的关键字是条件,是用来判断是插入还是更新用的,下面是要更新的字段。

注意:表字段是目标表的字段。主键id更新要选择N,不更新主键,不然会报错。

最后运行,并保存个转换为文件,demo.ktr。

六、创建Job

上面的配置的输入和输出(插入/更新),就是数据转换规则。下面需要创建一个job来运行这个转换。

spark和kettle对比_数据_16

双击“作业”,然后在“通用"里面先拖动一个"start"

spark和kettle对比_spark和kettle对比_17

双击设置属性

spark和kettle对比_spark和kettle对比_18

上面的把间隔设置成本每20秒执行一次。确定后再拖一个”转换“出来如下图:

spark和kettle对比_mysql_19

接下来把Start和转换连接起来,选中Start,shift拖动线。

spark和kettle对比_spark和kettle对比_20

然后双击”转换“设置属性如下图:

spark和kettle对比_Pan_21

Transformation选择上面的的转换规则文件。

最后运行,并保存个转换为文件,demo.kjb。

七、运行

spark和kettle对比_数据_22

点击小三角运行job看效果。注意原来表target_news是空表。

spark和kettle对比_mysql_23

运行成功后可以看到数据已经成功同步过来了。

如果要测试更新或增量同步。可以在原表插入表条记录或修改一条记录,等20秒左右就能在target_news中找到对应的记录。

八、通过脚本运行

除了通过上面的Spoon工具来运行转换或脚本也可以通过脚本来运行,这样不用启动图形化,性能和速度会一些。

比如cmd命令下。

运行转换:

D:\pdi-ce-8.3.0.0-371\data-integration>Pan.bat /file=D:\pdi-ce-8.3.0.0-371\data-integration\demo\demo.ktr

spark和kettle对比_Pan_24

运行job:

spark和kettle对比_Pan_25

ps:其实运行job会隐式的运行转换,因为一般job里面都会添加转换。也就是Kitchen里面包含了Pan的调用。

spark和kettle对比_Pan_26