【Pytorch】torch.nn. Softmax()

举报
海轰Pro 发表于 2022/09/02 22:38:44 2022/09/02
【摘要】 目录 简介torch.nn.Softmax()语法作用举例参考 结语 简介 Hello! 非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~   ଘ(੭ˊ...

在这里插入图片描述

简介

Hello!
非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~
 
ଘ(੭ˊᵕˋ)੭
昵称:海轰
标签:程序猿|C++选手|学生
简介:因C语言结识编程,随后转入计算机专业,获得过国家奖学金,有幸在竞赛中拿过一些国奖、省奖…已保研
学习经验:扎实基础 + 多做笔记 + 多敲代码 + 多思考 + 学好英语!
 
唯有努力💪
 
本文仅记录自己感兴趣的内容

torch.nn.Softmax()

语法

torch.nn.Softmax(dim=None)

  • dim (int) :计算 Softmax 的维度(因此沿 dim 的每个切片的总和为 1)。

return

  • 一个与输入具有相同维度和形状的张量,其值在 [0, 1] 范围内

作用

将 Softmax 函数应用于 n 维输入张量,重新缩放它们,使 n 维输出张量的元素位于 [0,1] 范围内并且总和为 1

Applies the Softmax function to an n-dimensional input Tensor rescaling them so that the elements of the n-dimensional output Tensor lie in the range [0,1] and sum to 1.

Softmax定义:

在这里插入图片描述

当输入张量是稀疏张量时,未指定的值将被视为 -inf

举例

m = nn.Softmax(dim=0)
input = torch.tensor([[1.,2,3],[4,5,6]])
output = m(input)

print('input : \n', input)
print('output : \n', output)

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

在这里插入图片描述


m = nn.Softmax(dim=1)
input = torch.tensor([[1.,2,3],[4,5,6]])
output = m(input)

print('input : \n', input)
print('output : \n', output)

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

在这里插入图片描述

以上的区别在于dim=0 or dim=1

也就是进行softmax运算选择的那一维度

dim=0,第一维,Pytorch是列优先

在这里插入图片描述

dim=1,第二维,按行

在这里插入图片描述

注意:

  • dim = -1 也就是按最后一维
  • 进入softmax需为float类型

参考

  • https://pytorch.org/docs/stable/generated/torch.nn.Softmax.html#torch.nn.Softmax

结语

文章仅作为个人学习笔记记录,记录从0到1的一个过程

希望对您有一点点帮助,如有错误欢迎小伙伴指正

在这里插入图片描述

文章来源: haihong.blog.csdn.net,作者:海轰Pro,版权归原作者所有,如需转载,请联系作者。

原文链接:haihong.blog.csdn.net/article/details/126655279

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。