nn.CrossEntropyLoss()

举报
风吹稻花香 发表于 2021/06/05 23:18:28 2021/06/05
【摘要】 用于多分类,直接写标签序号就可以:0,1,2. 预测需要维度与标签长度一致。 import torchimport torch.nn as nnimport mathcriterion = nn.CrossEntropyLoss()output = torch.randn(3, 5, requires_grad=True)label = torch.empty(3, dt...

用于多分类,直接写标签序号就可以:0,1,2.

预测需要维度与标签长度一致。


  
  1. import torch
  2. import torch.nn as nn
  3. import math
  4. criterion = nn.CrossEntropyLoss()
  5. output = torch.randn(3, 5, requires_grad=True)
  6. label = torch.empty(3, dtype=torch.long).random_(5)
  7. loss = criterion(output, label)
  8. print("网络输出为3个5类:")
  9. print(output)
  10. print("要计算loss的类别:")
  11. print(label)
  12. print("计算loss的结果:")
  13. print(loss)

预测代码:log_softmax好像没有归一化,要不要好像没区别


  
  1. output = model(img_arr)
  2. score = m_func.log_softmax(output, dim=1)
  3. _, match = torch.max(score.data, 1)
  4. index=match.item()

  
  1. import torch
  2. import torch.nn as nn
  3. x_input=torch.randn(3,3)#随机生成输入
  4. print('x_input:\n',x_input)
  5. y_target=torch.tensor([1,2,0])#设置输出具体值 print('y_target\n',y_target)
  6. #计算输入softmax,此时可

文章来源: blog.csdn.net,作者:网奇,版权归原作者所有,如需转载,请联系作者。

原文链接:blog.csdn.net/jacke121/article/details/104380220

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。