参考教程1 靠谱教程2
就是把一段话分成有逻辑的短语token solr自带的分词拆分不准确(不支持中文分词 所以一个字一个token 英语正常)
- 为IK Analyzer可以很方便的对词库近些年扩展,所以我在IK Analyzer中加入了搜狗词库的配置,可以最大限度的收录现在一些潮流的词语.
安装步骤
- 1.IK Analyzer官网下载地址:https://code.google.com/p/ik-analyzer/downloads/list
- 2.原始的IKAnalyzer已经不支持solr5以后的版本,这里是修改过后的 ik分词github下载
- 3.没装mvn 为降低学习难度 采用靠谱教程2
- 4.jar下载地址:https://search.maven.org/search?q=g:com.github.magese
- 4.非常直观的解释图
- 5.field ik分词器在managed-schema.xml配置
- 6.重启./solr restart
- 7.field 的name重复 报错 解决方法:注释掉一个
- 8.成功截图
总结:
- 1.下载jar放在 lib下
- 2.在managed-schema.xml配置fieldType filed (注意重复)