卷积神经网络(CNN)反向传播算法

举报
格图洛书 发表于 2021/12/30 00:03:02 2021/12/30
【摘要】  在卷积神经网络(CNN)前向传播算法中,我们对CNN的前向传播算法做了总结,基于CNN前向传播算法的基础,我们下面就对CNN的反向传播算法做一个总结。在阅读本文前,建议先研究DNN的反向传播算法:深度神经网络(DNN)反向传播算法(BP) 1. 回顾DNN的反向传播算法     我们首先回顾DNN的反向传播算法。在DNN中,我们是...

 在卷积神经网络(CNN)前向传播算法中,我们对CNN的前向传播算法做了总结,基于CNN前向传播算法的基础,我们下面就对CNN的反向传播算法做一个总结。在阅读本文前,建议先研究DNN的反向传播算法:深度神经网络(DNN)反向传播算法(BP)

1. 回顾DNN的反向传播算法

    我们首先回顾DNN的反向传播算法。在DNN中,我们是首先计算出输出层的δLδL:

δL=∂J(W,b)∂zL=∂J(W,b)∂aL⊙σ′(zL)δL=∂J(W,b)∂zL=∂J(W,b)∂aL⊙σ′(zL)

    利用数学归纳法,用δl+1δl+1的值一步步的向前求出第l层的δlδl,表达式为:

δl=(∂zl+1∂zl)Tδl+1=(Wl+1)Tδl+1⊙σ′(zl)δl=(∂zl+1∂zl)Tδl+1=(Wl+1)Tδl+1⊙σ′(zl)

    有了δlδl的表达式,从而求出W,bW,b的梯度表达式:

∂J(W,b)∂Wl=δl(al−1)T∂J(W,b)∂Wl=δl(al−1)T

∂J(W,b,x,y)∂bl==δl∂J(W,b,x,y)∂bl==δl

    有了W,bW,b梯度表达式

文章来源: wenyusuran.blog.csdn.net,作者:文宇肃然,版权归原作者所有,如需转载,请联系作者。

原文链接:wenyusuran.blog.csdn.net/article/details/98487956

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。