【Pytorch】torch.nn.init.xavier_uniform_()

举报
海轰Pro 发表于 2022/09/03 00:28:38 2022/09/03
【摘要】 目录 简介torch.nn.init.xavier_uniform_()语法作用举例参考 结语 简介 Hello! 非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出...

在这里插入图片描述

简介

Hello!
非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~
 
ଘ(੭ˊᵕˋ)੭
昵称:海轰
标签:程序猿|C++选手|学生
简介:因C语言结识编程,随后转入计算机专业,获得过国家奖学金,有幸在竞赛中拿过一些国奖、省奖…已保研
学习经验:扎实基础 + 多做笔记 + 多敲代码 + 多思考 + 学好英语!
 
唯有努力💪
 
本文仅记录自己感兴趣的内容

torch.nn.init.xavier_uniform_()

语法

torch.nn.init.xavier_uniform_(tensor, gain=1.0)

作用

根据了解训练深度前馈神经网络的难度 - Glorot, X. & Bengio, Y. (2010) 中描述的方法

使用均匀分布 用值填充输入张量

结果张量将具有从 U ( − a , a ) \mathcal{U}(-a, a) U(a,a) 采样的值,其中

在这里插入图片描述
也称为Glorot初始化

在这里插入图片描述

举例

w = torch.empty(3, 5)
print('w : \n', w)

nn.init.xavier_uniform_(w, gain=nn.init.calculate_gain('relu'))
print('w : \n', w)

  
 
  • 1
  • 2
  • 3
  • 4
  • 5

在这里插入图片描述


w = torch.Tensor([[1.0,2,3],[2.0,3,4]])
print('w : \n', w)

nn.init.xavier_uniform_(w, gain=nn.init.calculate_gain('relu'))
print('w : \n', w)

  
 
  • 1
  • 2
  • 3
  • 4
  • 5

在这里插入图片描述

注:w不能为1维


为什么需要Xavier 初始化?

在这里插入图片描述

所以论文提出,在每一层网络保证输入和输出的方差相同

参考:https://blog.csdn.net/dss_dssssd/article/details/83959474

个人感觉使用Xavier的作用就是预防一些参数过大或过小的情况,再保证方差一样的情况下进行缩放,便于计算

参考

  • https://pytorch.org/docs/stable/nn.init.html
  • https://blog.csdn.net/dss_dssssd/article/details/83959474

结语

文章仅作为个人学习笔记记录,记录从0到1的一个过程

希望对您有一点点帮助,如有错误欢迎小伙伴指正

在这里插入图片描述

文章来源: haihong.blog.csdn.net,作者:海轰Pro,版权归原作者所有,如需转载,请联系作者。

原文链接:haihong.blog.csdn.net/article/details/126655294

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。