首页 > 其他 > 详细

Elasticsearch之Analyze

时间:2020-03-06 12:33:53      阅读:72      评论:0      收藏:0      [点我收藏+]

1、analyzer的组成

CharacterFilters:针对原始文本进行处理例如去掉html

Tokenizer:按照规则切分单词

Token Filter:将切分好的单词进行二次加工

2、分词器

standard 默认分词器,按词切分,小写处理

stop  小写处理,停用词过滤(a,the,is)

simple  按照非字母切分(符号被过滤),小写处理

whitespace  按照空格切分,不转小写

keyword  不分词,直接输入当做输出

pattern  正则表达式,默认\W+(非字符分割)

language 提供了30多种常见的语言分词器

customer  自定义分词器

3、使用_analyzer API

指定analyzer进行测试

技术分享图片

返回结果字段含义:
token是一个实际被存储在索引中的词
position指明词在原文本中是第几个出现的
start_offset和end_offset表示词在原文本中占据的位置。

4、中文分词(ik+pingyin)

ik+pinyin插件的安装

https://github.com/medcl/elasticsearch-analysis-pinyin/releases

https://github.com/medcl/elasticsearch-analysis-ik/releases

将下载的安装包分别放在此路径下对应的目录中

技术分享图片

 选择对应的版本,保持与ES版本一致

Elasticsearch之Analyze

原文:https://www.cnblogs.com/fat-girl-spring/p/12425820.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!