GELU

举报
风吹稻花香 发表于 2021/06/05 22:26:43 2021/06/05
1.4k+ 0 0
【摘要】   GELU 这个函数特别占内存,计算量很大,对检测有帮助,收敛比relu6快 但是最高精度没有relu6高 梯度最大在第一层卷积层 类: #!/usr/bin/env python3# -*- coding: utf-8 -*-import torchimport mathfrom torch import nnfrom torch.nn import...

GELU

这个函数特别占内存,计算量很大,对检测有帮助,收敛比relu6快

但是最高精度没有relu6高

梯度最大在第一层卷积层

类:


      #!/usr/bin/env python3
      # -*- coding: utf-8 -*-
      import torch
      import math
      from torch import nn
      from torch.nn import functional as F
      class mish(nn.Module):
      def __init__(self):
       super(mish, self).__init__()
      # Also see https://arxiv.org/abs/1606.08415
      def forward(self, x):
      return x * torch.tanh(F.softplus(x))
      class Gelu(nn.Module):
      def __init__(self):
       super(Gelu, self).__init__()
      # Also see https://arxiv.org/abs/1606.08415
      def forward(self, x):
      return x * 0.5 * (1.0 + torch.erf(x / math.sqrt(2.0)))
      class Gelu_new(nn.Module):
      def __init__(self):
       super(Gelu_new, self).__init__()
      #Also see https://arxiv.org/abs/1606.08415
      def forward(self, x):
      return 0.5 * x * (1 + torch.tanh(math.sqrt(2 / math.pi) * (x + 0.044715 *
  
 

文章来源: blog.csdn.net,作者:网奇,版权归原作者所有,如需转载,请联系作者。

原文链接:blog.csdn.net/jacke121/article/details/103767214

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

作者其他文章

评论(0

抱歉,系统识别当前为高风险访问,暂不支持该操作

    全部回复

    上滑加载中

    设置昵称

    在此一键设置昵称,即可参与社区互动!

    *长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

    *长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。