pytorch 常用层(四)
【摘要】 神经网络工具箱nn
torch.nn的核心数据结构是Module,既可以表示神经网络中的某个层(layer),也可以表示一个包含很多层的神经网络。
import torch as t
from torch import nn
12
nn.layer
PyTorch实现了神经网络中绝大多数的layer,这些layer都继承于nn.Module
主要关注以下几点 ...
神经网络工具箱nn
torch.nn的核心数据结构是Module
,既可以表示神经网络中的某个层(layer),也可以表示一个包含很多层的神经网络。
import torch as t
from torch import nn
- 1
- 2
nn.layer
PyTorch实现了神经网络中绝大多数的layer,这些layer都继承于nn.Module
主要关注以下几点
- 函数的参数,如nn.Linear(in_features, out_features, bias),需关注这三个参数的作用。
- 属性、可学习参数和子module。如nn.Linear中有
weight
和bias
两个可学习参数,不包含子module。 - 输入输出的形状,如nn.linear的输入形状是(N, input_features),输出为(N,output_features),N是batch_size。
输入的不是单个数据,而是一个batch。输入只有一个数据,则必须调用tensor.unsqueeze(0)
或 tensor[None]
将数据
文章来源: maoli.blog.csdn.net,作者:刘润森!,版权归原作者所有,如需转载,请联系作者。
原文链接:maoli.blog.csdn.net/article/details/90261306
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)