• 设为首页
  • 点击收藏
  • 手机版
    手机扫一扫访问
    迪恩网络手机版
  • 关注官方公众号
    微信扫一扫关注
    迪恩网络公众号

gpt2-ml: GPT2 for Multiple Languages

原作者: [db:作者] 来自: 网络 收藏 邀请

开源软件名称:

gpt2-ml

开源软件地址:

https://gitee.com/gapyanpeng/gpt2-ml

开源软件介绍:

GPT2 for Multiple Languages

Open In ColabGitHubGitHub All Releasescontributions welcomeGitHub stars

中文说明 | English

  • 简化整理 GPT2 训练代码(based on Grover, supporting TPUs)
  • 移植 bert tokenizer,添加多语言支持
  • 15亿参数 GPT2 中文预训练模型( 15G 语料,训练 10w 步 )
  • 开箱即用的模型生成效果 demo #
  • 15亿参数 GPT2 中文预训练模型( 50G 语料,训练 100w 步 ,预计 12 月初发布)

预训练模型

15 亿参数中文预训练模型 [Google Drive 下载]

SHA256: 4a6e5124df8db7ac2bdd902e6191b807a6983a7f5d09fb10ce011f9a073b183e

训练语料来自 THUCNews 以及 nlp_chinese_corpus,清洗后总文本量约 15G

使用 Cloud TPU Pod v3-256 训练 10w 步

loss

Google Colab

只需两次鼠标点击(不包括 Colab 授权流程),体验 15 亿参数中文预训练模型生成效果:

[Colab Notebook]

训练

免责声明

该项目中的内容仅供技术研究参考,不作为任何结论性依据。

Citation

@misc{GPT2-ML,  author = {Zhibo Zhang},  title = {GPT2-ML: GPT-2 for Multiple Languages},  year = {2019},  publisher = {GitHub},  journal = {GitHub repository},  howpublished = {\url{https://github.com/imcaspar/gpt2-ml}},}

Reference

https://github.com/google-research/bert

https://github.com/rowanz/grover

Research supported with Cloud TPUs from Google's TensorFlow Research Cloud (TFRC)


鲜花

握手

雷人

路过

鸡蛋
该文章已有0人参与评论

请发表评论

全部评论

专题导读
热门推荐
热门话题
阅读排行榜

扫描微信二维码

查看手机版网站

随时了解更新最新资讯

139-2527-9053

在线客服(服务时间 9:00~18:00)

在线QQ客服
地址:深圳市南山区西丽大学城创智工业园
电邮:jeky_zhao#qq.com
移动电话:139-2527-9053

Powered by 互联科技 X3.4© 2001-2213 极客世界.|Sitemap