pytorch 指定层学习率

举报
风吹稻花香 发表于 2021/06/04 22:44:00 2021/06/04
【摘要】   model = Net()conv_params = list(map(id,model.conv1.parameters())) #提出前两个卷积层存放参数的地址conv_params += list(map(id,model.conv2.parameters()))prelu_params = []for m in model.modules(): #...

 


  
  1. model = Net()
  2. conv_params = list(map(id,model.conv1.parameters())) #提出前两个卷积层存放参数的地址
  3. conv_params += list(map(id,model.conv2.parameters()))
  4. prelu_params = []
  5. for m in model.modules(): #找到Prelu的参数
  6. if isinstance(m, nn.PReLU):
  7. prelu_params += m.parameters()
  8. #假象网络比我写的很大,还有一部分参数,这部分参数使用另一个学习率
  9. rest_params = filter(lambda x:id(x) not in conv_params+list(map(id,prelu_params)),model.parameters()) #提出剩下的参数
  10. print(list(rest_params))
  11. '''
  12. >> [] #是空的,因为我举的例子没其他参数了
  13. '''
  14. import torch.optim as optim
  15. optimizer = optim.Adam([{'params':model.conv1.parameters(),'lr':0.2},
  16. {'params':model.conv2.parameters(),'lr':0.2},
  17. {'params':prelu_params,'lr':0.02},
  18. {'params':rest_params,'lr':0.3}
  19. ])

 

文章来源: blog.csdn.net,作者:网奇,版权归原作者所有,如需转载,请联系作者。

原文链接:blog.csdn.net/jacke121/article/details/103943822

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。