tanh relu可视化

举报
风吹稻花香 发表于 2021/10/17 00:50:09 2021/10/17
【摘要】 直接截断的话,分割网络不收敛 说明tanh之后不能加relu函数 激活函数需要放在relu之后。  # !/usr/bin/python #encoding:utf-8import mathimport matplotlib.pyplot as pltimport numpy as npimport matplo...

直接截断的话,分割网络不收敛

说明tanh之后不能加relu函数

激活函数需要放在relu之后。 


  
  1. # !/usr/bin/python #encoding:utf-8
  2. import math
  3. import matplotlib.pyplot as plt
  4. import numpy as np
  5. import matplotlib as mpl
  6. import torch
  7. mpl.rcParams['axes.unicode_minus'] = False
  8. def sigmoid(x):
  9. return 1.0 / (1.0 + np.exp(-x))
  10. fig = plt.figure(figsize=(6, 4))
  11. ax = fig.add_subplot(111)
  12. x = np.linspace(-10, 10,num=200)
  13. y = sigmoid(x)
  14. # tanh = 2 * sigmoid(2 * x) - 1
  15. tanh= (math.e**(x)-math.e**(-x))/(math.e**(x)+math.e**(-x))
  16. for i in range(len(tanh)):
  17. tanh[i]=0 if tanh[i]<0 else tanh[i]
  18. # tanh[i]=max(tanh[i], alpha * tanh[i]

文章来源: blog.csdn.net,作者:AI视觉网奇,版权归原作者所有,如需转载,请联系作者。

原文链接:blog.csdn.net/jacke121/article/details/120796997

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。