《Python深度学习实战:基于TensorFlow和Keras的聊天机器人》 —1.7 激活函数
【摘要】 本节书摘来自华章计算机《Python深度学习实战:基于TensorFlow和Keras的聊天机器人》 一书中第1章,第1.7.1节,作者是[印] 纳温·库马尔·马纳西(Navin Kumar Manaswi),刘毅冰 薛 明 译。
1.7 激活函数
激活函数的想法来自对人脑中神经元工作机理的分析(见图1-1)。神经元在某个阈值(也称活化电位)之上会被激活。大多数情况下,激活函数还意在将输出限制在一个小的范围内。
Sigmoid、双曲正切(tanh)、ReLU和ELU是流行的激活函数。
我们来看一下常见的激活函数。
1.7.1 双曲正切函数与Sigmoid函数
图1-2给出了双曲正切激活函数与Sigmoid激活函数。
图1-1 激活函数
图1-2 两种流行的激活函数
演示代码如下:
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)