【Pytorch】torch.nn.Linear()

举报
海轰Pro 发表于 2022/09/01 22:18:20 2022/09/01
【摘要】 目录 简介torch.nn.Linear()语法作用举例参考 结语 简介 Hello! 非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~   ଘ(੭ˊᵕ...

在这里插入图片描述

简介

Hello!
非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~
 
ଘ(੭ˊᵕˋ)੭
昵称:海轰
标签:程序猿|C++选手|学生
简介:因C语言结识编程,随后转入计算机专业,获得过国家奖学金,有幸在竞赛中拿过一些国奖、省奖…已保研
学习经验:扎实基础 + 多做笔记 + 多敲代码 + 多思考 + 学好英语!
 
唯有努力💪
 
本文仅记录自己感兴趣的内容

torch.nn.Linear()

语法

torch.nn.Linear(in_features, out_features, bias=True, device=None, dtype=None)

作用

对输入数据应用线性变换 y = x A T + b y = xA^T + b y=xAT+b

构建一个全连接层(liner的作用,个人更加倾向于这样理解)
输入作为全连接层的输入
输出为全连接层的输出

在这里插入图片描述

举例

m = nn.Linear(2, 3) # 构建一个全连接层 输入神经元个数:2 输出神经元个数:3
input = torch.randn(4, 2) # 输入维度 4 * 2
output = m(input) # 向全连接层中加入输入数据 得到输出
print(input)
print(output)
print(output.size())

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

解释

  • 利用nn.Linear(2, 3)构建一个 2 * 3 的全连接层 , 即m
  • 将input应用到m上,得到output ,维度为 4 * 3
  • (4 * 2) * (2 * 3) = (4 * 3)

在这里插入图片描述

linear源码实现:

在这里插入图片描述

图片来源:https://blog.csdn.net/u013925378/article/details/103366064

从上面源码中可以看出,我们可以得到全连接层m中的weight、bias

print(m.weight)
print(m.weight.shape)
print(m.bias)
print(m.bias.shape)

  
 
  • 1
  • 2
  • 3
  • 4

在这里插入图片描述

参考

  • https://pytorch.org/docs/stable/generated/torch.nn.Linear.html#torch.nn.Linear
  • https://blog.csdn.net/u013925378/article/details/103366064

结语

文章仅作为个人学习笔记记录,记录从0到1的一个过程

希望对您有一点点帮助,如有错误欢迎小伙伴指正

在这里插入图片描述

文章来源: haihong.blog.csdn.net,作者:海轰Pro,版权归原作者所有,如需转载,请联系作者。

原文链接:haihong.blog.csdn.net/article/details/126639413

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。