MindSpore开源框架加持,如何「炼出」首个千亿参数、TB级内存的中文预训练语言模型?
【摘要】 千亿参数量的中文大规模预训练语言模型时代到来。
先考虑一个问题,你想到如何训练这样的大模型了吗?
难道盘古真得靠手动并行优化?









【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)