温馨提示
恭喜您,订阅成功!
温馨提示
抱歉,订阅失败,请稍后再试!
温馨提示
您还未绑定邮箱,需要绑定邮箱才能订阅哦!订阅成功后,订阅信息会发送到您绑定的邮箱。
温馨提示
请您在新打开的页面绑定邮箱!
注意:绑定邮箱完成前,请不要关闭此窗口!

昇思MindSpore技术公开课·大模型专题(第二期) 昇思MindSpore技术公开课·大模型专题(第二期)

昇思MindSpore技术公开课大模型专题课程即将为大家带来第十讲——MoE。

Mixtral模型把MoE(mixture of experts) 结构的稀疏大模型再次带到主流大模型的视野当中,那么MoE结构是什么样的?相较于传统Transformer稠密结构有哪些优势?本节公开课将带领大家全面学习MoE的相关内容,并使用MindSpore进行演示。

直播正在恢复,请稍后重试