专注于互联网--专注于架构

最新标签
网站地图
文章索引
Rss订阅
  、分词功能介绍  分词模块对于搜索重要性不言而喻例如没有分词时搜索“和服”会出现“产品和服务”搜索“海尔”会出现“海尔德”搜索“华为”会出现“清华为何”所以有必要给文本增加词边界信息以提高检索精确度  猎兔全球首家推出支持Lucene准确可用中文分词模块   2、执行思路方法  可以在命令行执行分词测试:>java "-Ddic.dir=D:/lg/work/SSeg/Dic" -pat [阅读全文] [PDF]
The tokenizer compose of two part. The code in a jar file and a dictinary information(chinese language model) ,which is compressed in a zip file, you can uncompress it to a path. Make a CnAnalyzer to test it:import java.io.Reader;import org.apache.lucene.analysis.Analyzer;import o [阅读全文] [PDF]
1 共2条 分1页