【郑州校区】IK分词器和ElasticSearch集成使用 ElasticSearch 默认采用分词器, 单个字分词 ,效果很差 搜索【IK Analyzer 3.0】 http://www.oschina.net/news/2660 1、 下载开源项目 2、 打包ik分词器 mvn clean 清空 mvn package 打包 生成: 这里不用执行,需要联网下载,而且很慢,我们使用现成的即可。 3、 进入target/release目录 将下列文件 ,拷贝到 %es%/plugins/analysis-ik 4、 进入target/release/config 目录 将所有配置文件,复制 %es%/config 下 5、 配置elasticsearch.yml 在%es%/config下 index.analysis.analyzer.ik.type: "ik"
放置到最后 名称命名为ik。后续用到分词器的时候,使用ik这个名词。 6、 重启es 发现ik分词器被加载 7、 访问 其中, “我”是一个词, “是”是停用词, “中国人”可以分为“中国人”、“中国”、“国人”。 【出现异常】: 别导错包: 传智播客·黑马程序员郑州校区地址 河南省郑州市 高新区长椿路11号大学科技园(西区)东门8号楼三层
|