# DataX TxtFileReader 说明
------------
## 1 快速介绍
TxtFileReader提供了读取本地文件系统数据存储的能力。在底层实现上,TxtFileReader获取本地文件数据,并转换为DataX传输协议传递给Writer。
**本地文件内容存放的是一张逻辑意义上的二维表,例如CSV格式的文本信息。**
## 2 功能与限制
TxtFileReader实现了从本地文件读取数据并转为DataX协议的功能,本地文件本身是无结构化数据存储,对于DataX而言,TxtFileReader实现上类比OSSReader,有诸多相似之处。目前TxtFileReader支持功能如下:
1. 支持且仅支持读取TXT的文件,且要求TXT中shema为一张二维表。
2. 支持类CSV格式文件,自定义分隔符。
3. 支持多种类型数据读取(使用String表示),支持列裁剪,支持列常量
4. 支持递归读取、支持文件名过滤。
5. 支持文本压缩,现有压缩格式为zip、gzip、bzip2。
6. 多个File可以支持并发读取。
我们暂时不能做到:
1. 单个File支持多线程并发读取,这里涉及到单个File内部切分算法。二期考虑支持。
2. 单个File在压缩情况下,从技术上无法支持多线程并发读取。
## 3 功能说明
### 3.1 配置样例
```json
{
"setting": {},
"job": {
"setting": {
"speed": {
"channel": 2
}
},
"content": [
{
"reader": {
"name": "txtfilereader",
"parameter": {
"path": ["/home/haiwei.luo/case00/data"],
"encoding": "UTF-8",
"column": [
{
"index": 0,
"type": "long"
},
{
"index": 1,
"type": "boolean"
},
{
"index": 2,
"type": "double"
},
{
"index": 3,
"type": "string"
},
{
"index": 4,
"type": "date",
"format": "yyyy.MM.dd"
}
],
"fieldDelimiter": ","
}
},
"writer": {
"name": "txtfilewriter",
"parameter": {
"path": "/home/haiwei.luo/case00/result",
"fileName": "luohw",
"writeMode": "truncate",
"format": "yyyy-MM-dd"
}
}
}
]
}
}
```
### 3.2 参数说明
* **path**
* 描述:本地文件系统的路径信息,注意这里可以支持填写多个路径。 <br />
当指定单个本地文件,TxtFileReader暂时只能使用单线程进行数据抽取。二期考虑在非压缩文件情况下针对单个File可以进行多线程并发读取。
当指定多个本地文件,TxtFileReader支持使用多线程进行数据抽取。线程并发数通过通道数指定。
当指定通配符,TxtFileReader尝试遍历出多个文件信息。例如: 指定/*代表读取/目录下所有的文件,指定/bazhen/\*代表读取bazhen目录下游所有的文件。**TxtFileReader目前只支持\*作为文件通配符。**
**特别需要注意的是,DataX会将一个作业下同步的所有Text File视作同一张数据表。用户必须自己保证所有的File能够适配同一套schema信息。读取文件用户必须保证为类CSV格式,并且提供给DataX权限可读。**
**特别需要注意的是,如果Path指定的路径下没有符合匹配的文件抽取,DataX将报错。**
* 必选:是 <br />
* 默认值:无 <br />
* **column**
* 描述:读取字段列表,type指定源数据的类型,index指定当前列来自于文本第几列(以0开始),value指定当前类型为常量,不从源头文件读取数据,而是根据value值自动生成对应的列。 <br />
默认情况下,用户可以全部按照String类型读取数据,配置如下:
```json
"column": ["*"]
```
用户可以指定Column字段信息,配置如下:
```json
{
"type": "long",
"index": 0 //从本地文件文本第一列获取int字段
},
{
"type": "string",
"value": "alibaba" //从TxtFileReader内部生成alibaba的字符串字段作为当前字段
}
```
对于用户指定Column信息,type必须填写,index/value必须选择其一。
* 必选:是 <br />
* 默认值:全部按照string类型读取 <br />
* **fieldDelimiter**
* 描述:读取的字段分隔符 <br />
* 必选:是 <br />
* 默认值:, <br />
* **compress**
* 描述:文本压缩类型,默认不填写意味着没有压缩。支持压缩类型为zip、gzip、bzip2。 <br />
* 必选:否 <br />
* 默认值:没有压缩 <br />
* **encoding**
* 描述:读取文件的编码配置。<br />
* 必选:否 <br />
* 默认值:utf-8 <br />
* **skipHeader**
* 描述:类CSV格式文件可能存在表头为标题情况,需要跳过。默认不跳过。<br />
* 必选:否 <br />
* 默认值:false <br />
* **nullFormat**
* 描述:文本文件中无法使用标准字符串定义null(空指针),DataX提供nullFormat定义哪些字符串可以表示为null。<br />
例如如果用户配置: nullFormat:"\N",那么如果源头数据是"\N",DataX视作null字段。
* 必选:否 <br />
* 默认值:\N <br />
* **csvReaderConfig**
* 描述:读取CSV类型文件参数配置,Map类型。读取CSV类型文件使用的CsvReader进行读取,会有很多配置,不配置则使用默认值。<br />
* 必选:否 <br />
* 默认值:无 <br />
常见配置:
```json
"csvReaderConfig":{
"safetySwitch": false,
"skipEmptyRecords": false,
"useTextQualifier": false
}
```
所有配置项及默认值,配置时 csvReaderConfig 的map中请**严格按照以下字段名字进行配置**:
```
boolean caseSensitive = true;
char textQualifier = 34;
boolean trimWhitespace = true;
boolean useTextQualifier = true;//是否使用csv转义字符
char delimiter = 44;//分隔符
char recordDelimiter = 0;
char comment = 35;
boolean useComments = false;
int escapeMode = 1;
boolean safetySwitch = true;//单列长度是否限制100000字符
boolean skipEmptyRecords = true;//是否跳过空行
boolean captureRawRecord = true;
```
### 3.3 类型转换
本地文件本身不提供数据类型,该类型是DataX TxtFileReader定义:
| DataX 内部类型| 本地文件 数据类型 |
| -------- | ----- |
|
| Long |Long |
| Double |Double|
| String |String|
| Boolean |Boolean |
| Date |Date |
其中:
* 本地文件 Long是指本地文件文本中使用整形的字符串表示形式,例如"19901219"。
* 本地文件 Double是指本地文件文本中使用Double的字符串表示形式,例如"3.1415"。
* 本地文件 Boolean是指本地文件文本中使用Boolean的字符串表示形式,例如"true"、"false"。不区分大小写。
* 本地文件 Date是指本地文件文本中使用Date的字符串表示形式,例如"2014-12-31",Date可以指定format格式。
## 4 性能报告
## 5 约束限制
略
## 6 FAQ
略
datax 读取kafka数据 datax读取文件
转载本文章为转载内容,我们尊重原作者对文章享有的著作权。如有内容错误或侵权问题,欢迎原作者联系我们进行内容更正或删除文章。
提问和评论都可以,用心的回复会被更多人看到
评论
发布评论
相关文章
-
CentOS安装DataX
datax安装
datax -
datax 可以读取kafka数据吗 datax file
文章目录一.快速介绍二. 功能与限制三. 功能说明3.1 配置样例3.2 参数说明3.2.1 path3.2.2 column3.2.3 fieldDelimiter3.2.4 compress3.2.5 encoding3.2.6 skipHeader3.2.7 nullFormat3.2.8 csvReaderConfig3.3 类型转换一.快速介绍 实际生产中,鉴于数据安全、不同够公司数
datax 可以读取kafka数据吗 DataX TxtFileReader DataX同步csv文件 本地文件