您对华为云开发者网站的整体评价?

非常不满意 非常满意

0

1

2

3

4

5

6

7

8

9

10

*您遇到了哪些问题?(最多选三项)
*您感到满意的原因是?(最多选三项)
*请针对您所遇到的问题给出具体的反馈
200/200
温馨提示
恭喜您,订阅成功!
温馨提示
抱歉,订阅失败,请稍后再试!
温馨提示
您还未绑定邮箱,需要绑定邮箱才能订阅哦!订阅成功后,订阅信息会发送到您绑定的邮箱。
温馨提示
请您在新打开的页面绑定邮箱!
注意:绑定邮箱完成前,请不要关闭此窗口!

昇思MindSpore技术公开课·大模型专题(第二期) 昇思MindSpore技术公开课·大模型专题(第二期)

昇思MindSpore技术公开课大模型专题课程即将为大家带来第十讲——MoE。

Mixtral模型把MoE(mixture of experts) 结构的稀疏大模型再次带到主流大模型的视野当中,那么MoE结构是什么样的?相较于传统Transformer稠密结构有哪些优势?本节公开课将带领大家全面学习MoE的相关内容,并使用MindSpore进行演示。

直播正在恢复,请稍后重试