pytorch relu6
【摘要】 tf代码是:
relu6 = min(max(features, 0), 6)
结果是把小于0的变成0,大于6的取6,y= torch.clamp(x,0,6)计算结果一样的。
缺点:这个训练收敛比较快,但是收敛比较好后,目标检测网络回归框不太准。
import torchimport torchvision import torchimport torch.nn ...
tf代码是:
relu6 = min(max(features, 0), 6)
结果是把小于0的变成0,大于6的取6,y= torch.clamp(x,0,6)计算结果一样的。
缺点:这个训练收敛比较快,但是收敛比较好后,目标检测网络回归框不太准。
-
-
import torch
-
import torchvision
-
-
import torch
-
import torch.nn as nn
-
-
# inplace为True,将会改变输入的数据 ,否则不会改变原输入,只会产生新的输出
-
x = torch.linspace(-5, 10, 20)
-
-
r6 = nn.ReLU6(inplace=True)
-
-
print(x)
-
y=r6(x)
-
print(y)
-
-
relu= nn.ReLU(inplace=True)
-
-
y=relu(x)
-
print(y)
-
-
-
y2= torch.clamp(x,0,6)
-
-
print(y2)
文章来源: blog.csdn.net,作者:网奇,版权归原作者所有,如需转载,请联系作者。
原文链接:blog.csdn.net/jacke121/article/details/95056982
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)