开源产品发布单位主要功能
fudannlp复旦自然语言处理1.信息检索: 文本分类 新闻聚类

 

2.中文处理: 中文分词 词性标注 实体名识别 关键词抽取 依存句法分析 时间短语识别

3.结构化学习: 在线学习 层次分类 聚类 精确推理

ik-analyzerhttp://code.google.com/p/ik-analyzer/1.采用了特有的“正向迭代最细粒度切分算法“,支持细粒度和智能分词两种切分模式;

 

 

2.在系统环境:Core2 i7 3.4G双核,4G内存,window 7 64位,Sun JDK 1.6_29 64位 普通pc环境测试,IK2012具有160万字/秒(3000KB/S)的高速处理能力。

 

3.2012版本的智能分词模式支持简单的分词排歧义处理和数量词合并输出。

 

4.采用了多子处理器分析模式,支持:英文字母、数字、中文词汇等分词处理,兼容韩文、日文字符

 

5.优化的词典存储,更小的内存占用。支持用户词典扩展定义。特别的,在2012版本,词典支持中文,英文,数字混合词语。

jieba

 

 

fxsjy1.       分词

 

2.       关键词提取

paodinghttp://code.google.com/p/paoding/1. 支持Lucene 3.0

 

2.高效率:在PIII 1G内存个人机器上,1秒 可准确分词 100万汉字。

 

3.采用基于 不限制个数 的词典文件对文章进行有效切分,使能够将对词汇分类定义。

4.能够对未知的词汇进行合理解析

 ansj中文分词

 

 

(ictclas的java实现.)

ansjsun1.词典是用的开源版的ictclas所提供的.并且进行了部分的人工优化

 

 

2.内存中中文分词每秒钟大约100万字(速度上已经超越ictclas)

文件读取分词每秒钟大约30万字

 

3.准确率能达到96%以上

 

4.目前实现了.中文分词. 中文姓名识别 . 用户自定义词典

可以应用到自然语言处理等方面,适用于对分词效果要求搞的各种项目.

ictclas北京中科天玑科技有限公司1、内存消耗不到知识库大小的1.5倍。基于该技术,分词速度单机500KB/s,分词精度98.45%,API不超过100KB,种词典数据压缩后不到3M,稳定性更高。

 

2、支持多线程

3、支持UTF-8

也可让系统自动识别编码。

4、支持简体繁体中文

5、支持Windows7

6、支持大用户词典

scwshightman.cn 

 

1.采用的是自行采集的词频词典,并辅以一定程度上的专有名称、人名、地名、数字年代等规则集,经小范围测试大概准确率在 90% ~ 95% 之间.

2. SCWS 采用纯 C 代码开发,以Unix-Like OS 为主要平台环境,提供共享函数库,方便植入各种现有软件系统。

3.此外它支持 GBK,UTF-8,BIG5 等汉字编码,切词效率高。

ctbparserhttp://code.google.com/p/ctbparser/1.用户可以自行编辑词条以改善分词,词性标注效果。

 

2.可以处理繁体中文。

3.用于分词、词性标注、依存句法分析

jcseghttp://code.google.com/p/jcseg/1。mmseg四种过滤算法,分词准确率达到了97%以上。

 

2。支持自定义词库。

3。中文数字识别,例如:”四五十个人都来了,管他叁柒贰拾壹。”中的”四五十”和”叁柒贰拾壹”。(1.6.7版开始支持)

4。支持中英混合词的识别。例如:B超。

5。支持基本单字单位的识别,例如2012年。

6。智能圆角半角处理。

7。特殊字母识别:例如:Ⅰ,Ⅱ

8。特殊数字识别:例如:①,⑩

9。配对标点内容提取:例如:最好的Java书《java编程思想》,‘畅想杯黑客技术大赛’,被《,‘,“,『标点标记的内容。(1.6.8版开始支持)

 

10。智能中文人名识别。中文人名识别正确率达90%以上。(可以维护lex-lname.lex,lex-dname-1.lex,lex-dname-2.lex来去除歧义,提高准确率)。

imdict-chinese-analyzer

 

(ictclas中文分词程序的重新实现(基于Java))

高小平功能:中文分词、停止词过滤

 

 

优点:开源,分词速度快,效率高

 

缺点:不支持自己添加词库,不支持词性标注(开发人员自己说是为了提高速度),data文件夹仅

 

自带了两个字典coredict核心字典、bigramdict词关系字典,这是两个最重要的词典,没有地名和

 

人名的词典,所以要识别人名地名比较麻烦,据说要用层次hmm,先粗分在细分。

mmseg4jhttp://code.google.com/p/mmseg4j/1.实现 mmseg 算法分词

 

2.有两种 Simple 和 Complex 分词

3.扩展 Lucene 的 Analyzer, 以便结合 Lucene 使用

4.扩展 Solr 的 TokenizerFactory,以便结合 Solr 使用

5使用sogou核心词库(15W)

6.实现多分词

7.允许多个词库文件

转载于:https://www.cnblogs.com/sovf/p/3277424.html

Logo

开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!

更多推荐