分词器
分词器的主要作用将用户输入的一段文本,按照一定逻辑,分析成多个词语的一种工具。之前介绍Elasticsearch字段的时候知道字符串中的text类型需要配合分词器进行查询。这一篇就简单的介绍下我们日常接触的分词器。
Elasticsearch本身就内置了一些分词器,但是它也提供了让我们自己安装分词器的功能。
内置分词器
这里主要介绍的其内置的分词器
词语分词
词语分词是日常经常使用的分词工具,他将一段话根据一定规则进行拆分获得多个查询子短语
- 标准分词器
- 字母分词器
- 小写标记器
- 空格标记器
- UAX URL电子邮件分词器
- 经典分词器
单词分词
这种分词器主要关注单一的词,将一个词进行划分。这种拆分方式显然对于东亚很多地区的语言来说不适用。
- N-Gram令牌生成器
- Edge N-Gram令牌生成器
结构化文本分词
- 关键字标记器
- 正则分词器
- 简单分词器
- 字符组标记
- 简单模式分割标记器
- 路径标记器
词语分词
标准分词器(Standard Tokenizer)
根据standardUnicode文本分段算法的定义。将文本划分为多个单词边界的上的术语。分词的时候将内容转为小写,并移除大多数标点符号。可以通过配置停用词来忽略掉某些内容。
分词例子
原始内容
"The 2 QUICK Brown-Foxes jumped over the lazy dog's bone."
分词后内容
[ the, 2, quick, brown, foxes, jumped, over, the, lazy, dog's, bone ]
可配置项
{
"settings": {
"analysis": {
"analyzer": {
"my_english_analyzer": {
"type": "standard",
"max_token_length": 5,
"stopwords": "_english_"
}
}
}
}
}
- max_token_length最大令牌长度。如果看到令牌超过此长度,则将其max_token_length间隔分割。默认为255。
- stopwords预定义的停用词列表,例如_english_或包含停用词列表的数组。默认为_none_。
- stopwords_path包含停用词的文件的路径。
简单分词器(Letter Tokenizer)
当simple分析器遇到非字母的字符时,它会将文本划分为多个术语。它小写所有术语。对于中文和亚洲很多国家的语言来说是无用的
分词例子
原始内容
"The 2 QUICK Brown-Foxes jumped over the lazy dog's bone."
分词后内容
[ the, quick, brown, foxes, jumped, over, the, lazy, dog, s, bone ]
可配置项
该分词器没有可配置对象。
小写分词器(Lowercase Tokenizer)
将输入内容转换为小写,然后再使用简单分词器进行分词
分词例子
原始内容
"The 2 QUICK Brown-Foxes jumped over the lazy dog's bone."
分词后内容
[ the, quick, brown, foxes, jumped, over, the, lazy, dog, s, bone ]
可配置项
该分词器没有可配置对象。
电子邮件分词器(UAX URL Email Tokenizer)
此分词器主要是针对email和url地址进行关键内容的标记。
分词例子
原始内容
原始内容
"Email me at john.smith@global-international.com"
分词后内容
[ Email, me, at, john.smith@global-international.com ]
可配置项
{
"settings": {
"analysis": {
"analyzer": {
"my_english_analyzer": {
"type": "standard",
"max_token_length": 5
}
}
}
}
}
- max_token_length最大令牌长度。如果看到令牌超过此长度,则将其max_token_length间隔分割。默认为255。
空白分词器(Whitespace Tokenizer)
该whitespace分析仪将文本分为方面每当遇到任何空白字符。和上面的分词器不同,空白分词器默认并不会将内容转换为小写。
分词例子
原始内容
"The 2 QUICK Brown-Foxes jumped over the lazy dog's bone."
分词后内容
[ The, 2, QUICK, Brown-Foxes, jumped, over, the, lazy, dog's, bone. ]
经典分词器(Classic Tokenizer)
可对首字母缩写词,公司名称,电子邮件地址和互联网主机名进行特殊处理。但是,这些规则并不总是有效,并且此关键词生成器不适用于英语以外的大多数其他语言
- 它最多将标点符号拆分为单词,删除标点符号。但是,不带空格的点被认为是查询关键词的一部分
- 此分词器可以将邮件地址和URL地址识别为查询的term(词条)
分词例子
原始内容
原始内容
"The 2 QUICK Brown-Foxes jumped over the lazy dog's bone."
分词后内容
[ The, 2, QUICK, Brown, Foxes, jumped, over, the, lazy, dog's, bone ]
可配置项
{
"settings": {
"analysis": {
"analyzer": {
"my_analyzer": {
"tokenizer": "my_tokenizer"
}
},
"tokenizer": {
"my_tokenizer": {
"type": "classic",
"max_token_length": 5
}
}
}
}
}
- max_token_length最大令牌长度。如果看到令牌超过此长度,则将其max_token_length间隔分割。默认为255。
断字分词
N-Gram分词器(N-Gram Tokenizer)和Edge N-Gram分词器(Edge N-Gram Tokenizer)
所述ngram标记生成器可以分解文本成单词,当它遇到任何指定的字符的列表(例如,空格或标点),则它返回的n-gram的每个单词的:
比如这种文本
原始内容
"Quick Fox"
分词后内容
[ Q, Qu, u, ui, i, ic, c, ck, k, "k ", " ", " F", F, Fo, o, ox, x ]
而Edge N-Gram分词器会将
[ Q, Qu ]
两者都支持配置
- min_gram最小字符长度
- max_gram最大字符长度
- token_chars关键词中应包含的字符类。Elasticsearch将分割不属于指定类的字符。默认为[]
未整理完。。。。。。