《深度学习:卷积神经网络从入门到精通》——2.3 导数公式

举报
华章计算机 发表于 2019/06/05 23:27:14 2019/06/05
【摘要】 本书摘自《深度学习:卷积神经网络从入门到精通》——书中第2章,第2.3节,作者是李玉鑑、张婷、单传辉、刘兆英等。

2.3 导数公式

sigmoid函数的导数是:

(2.20)

双曲正切函数tanh的导数是:

(2.21)

校正线性单元ReLU的导数是:

(2.22)

如果x = (x1, x2, …, xn)T,那么逐元向量函数的导数是:

(2.23)

如果X = (xij)m×n,那么逐元矩阵函数的导数是:

(2.24)

如果a、b、c和x是n维向量,A、B、C和X是n阶矩阵,那么

(2.25)

(2.26)

(2.27)

(2.28)

(2.29)

(2.30)

(2.31)

(2.32)

如果用Tr(·)表示矩阵的迹函数(即计算矩阵的对角元素之和),那么不难得到:

(2.33)

(2.34)

如果U = F(X)是关于X的矩阵值函数且g(U)是关于U的实值函数,那么下面的链式法则成立:

?(2.35)

此外,关于矩阵迹函数Tr(·)还有如下偏导公式

(2.36)

(2.37)

(2.38)

(2.39)

(2.40)

(2.41)

(2.42)

(2.43)

image.png

image.png

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。