《Python深度学习实战:基于TensorFlow和Keras的聊天机器人》 —1.7 激活函数

举报
华章计算机 发表于 2020/02/13 20:16:32 2020/02/13
【摘要】 本节书摘来自华章计算机《Python深度学习实战:基于TensorFlow和Keras的聊天机器人》 一书中第1章,第1.7.1节,作者是[印] 纳温·库马尔·马纳西(Navin Kumar Manaswi),刘毅冰 薛 明 译。

1.7 激活函数

激活函数的想法来自对人脑中神经元工作机理的分析(见图1-1)。神经元在某个阈值(也称活化电位)之上会被激活。大多数情况下,激活函数还意在将输出限制在一个小的范围内。

Sigmoid、双曲正切(tanh)、ReLU和ELU是流行的激活函数。

我们来看一下常见的激活函数。

1.7.1 双曲正切函数与Sigmoid函数

图1-2给出了双曲正切激活函数与Sigmoid激活函数。

 image.png

图1-1 激活函数

 image.png

图1-2 两种流行的激活函数

演示代码如下:

image.png

image.png

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。