【MindSpore第七期两日集群营】使用Dataflow Fragment进行可扩展分布式训练
【摘要】 MindSpore第七期两日集群营
打开 https://gitee.com/mindspore/reinforcement/tree/master/example/dqn
MindSpore Reinforcement 是MindSpore提供的强化学习框架,它把强化学习算法转换为一系列编译好的计算图,然后使用MindSpore框架在CPU、GPU或者昇腾芯片上高效运行。
要实现MindSpore Reinforcement的强化学习训练,需要先安装MindSpore,然后再安装MindSpore Reinforcement。他们之间的版本依赖有以下的关系:
当然,这次我们暂时不考虑自己去安装这些内容,而是利用MindSpore的羲和完成“运行强化学习DQN算法”的任务。
打开 https://xihe.mindspore.cn/projects/VectorSL/MSRL_openday
点击fork :
点击确定。
点击 训练-训练列表:
点击创建训练实例:
加载 train/config.json文件:
修改参数:500个episodes,训练中的eval间隔改为20一次
试试手工修改 https://xihe.mindspore.cn/projects/zhanghui_china/MSRL_openday/blob/train/trainDir/train.py
将原来的650改为500:
点击确认,保存:
修改该文件,将eval从10改为20
按确定后保存。
回到前面创建训练作业的窗口,点击创建。
系统会显示训练列表:此时可以看到训练已经开始了~~~
点击job名称 zhanghui_china-DQN,查看训练详情:
耐心等待,左边的日志会时不时的闪动,更新训练的进度:
显示以上内容,就表示训练完毕了!
返回训练列表:
状态为Completed。
可见使用羲和,可以完全屏蔽掉安装的过程,仅需要fork项目后,调整适当的参数即可完成相关的强化学习算法的训练,真的是简单的爸爸和简单的妈妈为啥子做了一桌子菜——简单到家了。
朋友们,你们赶紧来试一试吧!
(全文完,谢谢阅读)
【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
作者其他文章
评论(0)