GELU

举报
风吹稻花香 发表于 2021/06/05 22:26:43 2021/06/05
【摘要】   GELU 这个函数特别占内存,计算量很大,对检测有帮助,收敛比relu6快 但是最高精度没有relu6高 梯度最大在第一层卷积层 类: #!/usr/bin/env python3# -*- coding: utf-8 -*-import torchimport mathfrom torch import nnfrom torch.nn import...

 

GELU

这个函数特别占内存,计算量很大,对检测有帮助,收敛比relu6快

但是最高精度没有relu6高

梯度最大在第一层卷积层

类:


  
  1. #!/usr/bin/env python3
  2. # -*- coding: utf-8 -*-
  3. import torch
  4. import math
  5. from torch import nn
  6. from torch.nn import functional as F
  7. class mish(nn.Module):
  8. def __init__(self):
  9. super(mish, self).__init__()
  10. # Also see https://arxiv.org/abs/1606.08415
  11. def forward(self, x):
  12. return x * torch.tanh(F.softplus(x))
  13. class Gelu(nn.Module):
  14. def __init__(self):
  15. super(Gelu, self).__init__()
  16. # Also see https://arxiv.org/abs/1606.08415
  17. def forward(self, x):
  18. return x * 0.5 * (1.0 + torch.erf(x / math.sqrt(2.0)))
  19. class Gelu_new(nn.Module):
  20. def __init__(self):
  21. super(Gelu_new, self).__init__()
  22. #Also see https://arxiv.org/abs/1606.08415
  23. def forward(self, x):
  24. return 0.5 * x * (1 + torch.tanh(math.sqrt(2 / math.pi) * (x + 0.044715 *

文章来源: blog.csdn.net,作者:网奇,版权归原作者所有,如需转载,请联系作者。

原文链接:blog.csdn.net/jacke121/article/details/103767214

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。