分布式强化学习药物生成应用

举报
7corner7 发表于 2020/09/11 18:12:28 2020/09/11
【摘要】 论文依据:http://primo.ai/index.php?title=Generative_Tensorial_Reinforcement_Learning_(GENTRL)隐式表达模型 + 自动编码器在预训练的基础上能够一定程度上表征分子特征,生成新的分子空间;利用张量生成,该模型可以从空间自生成分子序列,结合强化学习模式,对生成的分子序列打分反馈,更新隐式表达模型,学习进化,优化生成...

论文依据:http://primo.ai/index.php?title=Generative_Tensorial_Reinforcement_Learning_(GENTRL)

隐式表达模型 + 自动编码器在预训练的基础上能够一定程度上表征分子特征,生成新的分子空间;

利用张量生成,该模型可以从空间自生成分子序列,结合强化学习模式,对生成的分子序列打分反馈,更新隐式表达模型,学习进化,优化生成结构。

image.png

(图片来自上述论文)


针对原码训练时间过慢问题对强化学习部分进行优化,尝试运用分布式架构加速训练:


  1. learner-actor分离:

    分布采样,扩大 batchsize 的同时相应提高 learning rate

    image.png


  2. 结果显示:有效提高速度,worker数量与速度呈正比

    image.png

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。