- 基于 CPU 的高性能、持续优化 中文分词器。
-
基于 C 的 Python 接口分词器,CPU 单进程运行性能达 13.4 万字/秒,多个分词工具性能对比
-
网页版 JioNLP源站,可快速试用分词、词性标注功能
-
基于 CRF 算法,精细优化的 字符特征工程,模型特征说明
-
对模型文件的尽力压缩,500万特征参数,模型文件大小30M,方便 pip 安装
-
将词典静态、动态加入模型,共同预测分词序列,流程一致性强,词典配置说明
-
将规则加入模型,有效克服某些类型文本受限于模型处理的情况,分词-添加正则
-
支持词性标注功能,与 JioNLP 联合实现关键短语抽取、新闻地域识别 等功能
- pip 方式(稳定版本)
$ pip install jiojio
- Git 方式(开发版本)
$ git clone https://github.com/dongrixinyu/jiojio
$ cd jiojio
$ pip install .
- 非 ubuntu 环境的 C 安装 如使用 windows 或 mac 等操作系统或其它硬件,则没有直接可调用 C 的库,可以使用以下方式安装编译 C 库。以下方式仅供参考,在熟悉 C 语言后进行调试使用。
$ git clone https://github.com/dongrixinyu/jiojio
$ cd jiojio/jiojio/jiojio_cpp
$ ./compiler.sh
- 基础方式
>>> import jiojio
>>> jiojio.init()
>>> print(jiojio.cut('开源软件应秉持全人类共享的精神,搞封闭式是行不通的。'))
# ['开源', '软件', '应', '秉持', '全人类', '共享', '的', '精神', ',', '搞', '封闭式', '是', '行', '不通', '的', '。']
# 可通过 jiojio.help() 获取基本使用方式说明
# 可通过 print(jiojio.init.__doc__) 获取模型初始化的各类参数
- 可能早十年把这个分词器写出来,jiojio 也许现在就会流行起来。在 ChatGPT 称霸 NLP 界的今天,我写这个工具,加速这个工具,纯粹是为了提升一下 C 语言的编程能力。ChatGPT 能够做出来,还是需要理想主义的,我写这个工具同理。
- 与jiojio有关的问答
- 对分词器效果做标注数据更新,模型长期优化
- 欢迎加入自然语言处理NLP交流群,搜索wx公众号“JioNLP”,或扫以下码即可入群