一种实用的降学习率公式

举报
AI浩 发表于 2021/12/27 22:43:43 2021/12/27
【摘要】 一种实用的降学习率公式: # set lr rate current_lr = 0.0002 * (1 / 2) ** (step / 10000) ...

一种实用的降学习率公式:

 			# set lr rate
            current_lr = 0.0002 * (1 / 2) ** (step / 10000)
            for param_group in optimizer_G.param_groups:
                param_group["lr"] = current_lr

  
 
  • 1
  • 2
  • 3
  • 4

具体使用方法:

 	step = 0
    for epoch in range(opt.epoch, opt.n_epochs):
        for i, batch in enumerate(dataloader):
            step = step + 1

            # set lr rate
            current_lr = 0.0002 * (1 / 2) ** (step / 10000)
            for param_group in optimizer_G.param_groups:
                param_group["lr"] = current_lr

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

文章来源: wanghao.blog.csdn.net,作者:AI浩,版权归原作者所有,如需转载,请联系作者。

原文链接:wanghao.blog.csdn.net/article/details/122166478

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。