• 设为首页
  • 点击收藏
  • 手机版
    手机扫一扫访问
    迪恩网络手机版
  • 关注官方公众号
    微信扫一扫关注
    迪恩网络公众号

Jiagu: Jiagu深度学习自然语言处理工具 知识图谱关系抽取 中文分词 词性标注 命名实 ...

原作者: [db:作者] 来自: 网络 收藏 邀请

开源软件名称:

Jiagu

开源软件地址:

https://gitee.com/ownthink/Jiagu

开源软件介绍:

Jiagu自然语言处理工具

Jiagu使用大规模语料训练而成。将提供中文分词、词性标注、命名实体识别、情感分析、知识图谱关系抽取、关键词抽取、文本摘要、新词发现、情感分析、文本聚类等常用自然语言处理功能。参考了各大工具优缺点制作,将Jiagu回馈给大家。

目录


提供的功能有:

  • 中文分词
  • 词性标注
  • 命名实体识别
  • 知识图谱关系抽取
  • 关键词提取
  • 文本摘要
  • 新词发现
  • 情感分析
  • 文本聚类
  • 等等。。。。

安装方式

pip安装

pip install -U jiagu

如果比较慢,可以使用清华的pip源:pip install -U jiagu -i https://pypi.tuna.tsinghua.edu.cn/simple

源码安装

git clone https://github.com/ownthink/Jiagucd Jiagupython3 setup.py install

使用方式

  1. 快速上手:分词、词性标注、命名实体识别
import jiagu#jiagu.init() # 可手动初始化,也可以动态初始化text = '厦门明天会不会下雨'words = jiagu.seg(text) # 分词print(words)pos = jiagu.pos(words) # 词性标注print(pos)ner = jiagu.ner(words) # 命名实体识别print(ner)
  1. 中文分词
import jiagutext = '汉服和服装、维基图谱'words = jiagu.seg(text)print(words)# jiagu.load_userdict('dict/user.dict') # 加载自定义字典,支持字典路径、字典列表形式。jiagu.load_userdict(['汉服和服装'])words = jiagu.seg(text) # 自定义分词,字典分词模式有效print(words)
  1. 知识图谱关系抽取

仅用于测试用,可以pip3 install jiagu==0.1.8,只能使用百科的描述进行测试。效果更佳的后期将会开放api。

import jiagu# 吻别是由张学友演唱的一首歌曲。# 《盗墓笔记》是2014年欢瑞世纪影视传媒股份有限公司出品的一部网络季播剧,改编自南派三叔所著的同名小说,由郑保瑞和罗永昌联合导演,李易峰、杨洋、唐嫣、刘天佐、张智尧、魏巍等主演。text = '姚明1980年9月12日出生于上海市徐汇区,祖籍江苏省苏州市吴江区震泽镇,前中国职业篮球运动员,司职中锋,现任中职联公司董事长兼总经理。'knowledge = jiagu.knowledge(text)print(knowledge)

训练数据:https://github.com/ownthink/KnowledgeGraphData

  1. 关键词提取
import jiagutext = '''该研究主持者之一、波士顿大学地球与环境科学系博士陈池(音)表示,“尽管中国和印度国土面积仅占全球陆地的9%,但两国为这一绿化过程贡献超过三分之一。考虑到人口过多的国家一般存在对土地过度利用的问题,这个发现令人吃惊。”NASA埃姆斯研究中心的科学家拉玛·内曼尼(Rama Nemani)说,“这一长期数据能让我们深入分析地表绿化背后的影响因素。我们一开始以为,植被增加是由于更多二氧化碳排放,导致气候更加温暖、潮湿,适宜生长。”“MODIS的数据让我们能在非常小的尺度上理解这一现象,我们发现人类活动也作出了贡献。”NASA文章介绍,在中国为全球绿化进程做出的贡献中,有42%来源于植树造林工程,对于减少土壤侵蚀、空气污染与气候变化发挥了作用。据观察者网过往报道,2017年我国全国共完成造林736.2万公顷、森林抚育830.2万公顷。其中,天然林资源保护工程完成造林26万公顷,退耕还林工程完成造林91.2万公顷。京津风沙源治理工程完成造林18.5万公顷。三北及长江流域等重点防护林体系工程完成造林99.1万公顷。完成国家储备林建设任务68万公顷。'''				keywords = jiagu.keywords(text, 5) # 关键词print(keywords)
  1. 文本摘要
import jiagufin = open('input.txt', 'r')text = fin.read()fin.close()summarize = jiagu.summarize(text, 3) # 摘要print(summarize)
  1. 新词发现
import jiagujiagu.findword('input.txt', 'output.txt') # 根据文本,利用信息熵做新词发现。
  1. 情感分析
import jiagutext = '很讨厌还是个懒鬼'sentiment = jiagu.sentiment(text)print(sentiment)
  1. 文本聚类
import jiagudocs = [        "百度深度学习中文情感分析工具Senta试用及在线测试",        "情感分析是自然语言处理里面一个热门话题",        "AI Challenger 2018 文本挖掘类竞赛相关解决方案及代码汇总",        "深度学习实践:从零开始做电影评论文本情感分析",        "BERT相关论文、文章和代码资源汇总",        "将不同长度的句子用BERT预训练模型编码,映射到一个固定长度的向量上",        "自然语言处理工具包spaCy介绍",        "现在可以快速测试一下spaCy的相关功能,我们以英文数据为例,spaCy目前主要支持英文和德文"    ]cluster = jiagu.text_cluster(docs)	print(cluster)

评价标准

  1. msr测试结果(旧版本)

msr

附录

  1. 词性标注说明
n   普通名词nt   时间名词nd   方位名词nl   处所名词nh   人名nhf  姓nhs  名ns   地名nn   族名ni   机构名nz   其他专名v   动词vd  趋向动词vl  联系动词vu  能愿动词a   形容词f   区别词m   数词  q   量词d   副词r   代词p   介词c   连词u   助词e   叹词o   拟声词i   习用语j   缩略语h   前接成分k   后接成分g   语素字x   非语素字w   标点符号ws  非汉字字符串wu  其他未知的符号
  1. 命名实体说明(采用BIO标记方式)
B-PER、I-PER   人名B-LOC、I-LOC   地名B-ORG、I-ORG   机构名

加入我们

人工智能qq群1:90780053(满)人工智能qq群2:956936481(满)人工智能qq群3:1160292084(满)人工智能qq群4:1019825236知识图谱qq群1:55152968(满)知识图谱qq群2:740104333(满)知识图谱qq群3:586457987微信群可联系作者微信:MrYener,作者邮箱联系方式:[email protected]

捐赠作者(您的鼓励是作者开源最大的动力!!!):捐赠致谢

收款码

贡献者:

  1. Yener
  2. zengbin93
  3. dirtdust
  4. frankchen7788

鲜花

握手

雷人

路过

鸡蛋
该文章已有0人参与评论

请发表评论

全部评论

专题导读
热门推荐
热门话题
阅读排行榜

扫描微信二维码

查看手机版网站

随时了解更新最新资讯

139-2527-9053

在线客服(服务时间 9:00~18:00)

在线QQ客服
地址:深圳市南山区西丽大学城创智工业园
电邮:jeky_zhao#qq.com
移动电话:139-2527-9053

Powered by 互联科技 X3.4© 2001-2213 极客世界.|Sitemap