softsign激活函数

举报
风吹稻花香 发表于 2021/11/13 00:30:17 2021/11/13
【摘要】 softsign激活函数 人脸识别中,尝试替代prelu和bn层,效果不好。 pytorch函数: a_tensor=torch.Tensor([[-1,2,30],[4,5,60],[7,8,9]]) aaaaa=F.softsign(a_tensor) print(a_tensor) class...

softsign激活函数

人脸识别中,尝试替代prelu和bn层,效果不好。

pytorch函数:


  
  1. a_tensor=torch.Tensor([[-1,2,30],[4,5,60],[7,8,9]])
  2. aaaaa=F.softsign(a_tensor)
  3. print(a_tensor)


  
  1. class SoftSign(Activation):
  2. def __init__(self, x):
  3. super(SoftSign, self).__init__(x)
  4. def forward(self):
  5. self.p = self.x / (1 + np.abs(self.x))
  6. return self.p
  7. def backward(self):
  8. self.derivative = np.full_like(self.p, 0)
  9. self.derivative[self.x >= 0] = np.power(1 - self.p[self.x >= 0], 2)
  10. self.derivative[self.x < 0] = np.power(1 + self.p[self.x < 0], 2)
  11. return self.derivative
  12. if __name__ == "__main__":
  13. x = np.linspace(-10, 10, 500)
  14. plt.plot(x, SoftSign(x)()[0], label='softSign_forward')
  15. plt.plot(x, SoftSign(x)()[1], label='softSign_backward')
  16. plt.legend(loc='best')
  17. plt.show()

效果图:

文章来源: blog.csdn.net,作者:AI视觉网奇,版权归原作者所有,如需转载,请联系作者。

原文链接:blog.csdn.net/jacke121/article/details/121284755

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。