一种实用的降学习率公式
【摘要】
一种实用的降学习率公式:
# set lr rate
current_lr = 0.0002 * (1 / 2) ** (step / 10000)
...
一种实用的降学习率公式:
# set lr rate
current_lr = 0.0002 * (1 / 2) ** (step / 10000)
for param_group in optimizer_G.param_groups:
param_group["lr"] = current_lr
- 1
- 2
- 3
- 4
具体使用方法:
step = 0
for epoch in range(opt.epoch, opt.n_epochs):
for i, batch in enumerate(dataloader):
step = step + 1
# set lr rate
current_lr = 0.0002 * (1 / 2) ** (step / 10000)
for param_group in optimizer_G.param_groups:
param_group["lr"] = current_lr
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
文章来源: wanghao.blog.csdn.net,作者:AI浩,版权归原作者所有,如需转载,请联系作者。
原文链接:wanghao.blog.csdn.net/article/details/122166478
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)