卷积神经网络(CNN)反向传播算法
【摘要】
在卷积神经网络(CNN)前向传播算法中,我们对CNN的前向传播算法做了总结,基于CNN前向传播算法的基础,我们下面就对CNN的反向传播算法做一个总结。在阅读本文前,建议先研究DNN的反向传播算法:深度神经网络(DNN)反向传播算法(BP)
1. 回顾DNN的反向传播算法
我们首先回顾DNN的反向传播算法。在DNN中,我们是...
在卷积神经网络(CNN)前向传播算法中,我们对CNN的前向传播算法做了总结,基于CNN前向传播算法的基础,我们下面就对CNN的反向传播算法做一个总结。在阅读本文前,建议先研究DNN的反向传播算法:深度神经网络(DNN)反向传播算法(BP)
1. 回顾DNN的反向传播算法
我们首先回顾DNN的反向传播算法。在DNN中,我们是首先计算出输出层的δLδL:
δL=∂J(W,b)∂zL=∂J(W,b)∂aL⊙σ′(zL)δL=∂J(W,b)∂zL=∂J(W,b)∂aL⊙σ′(zL)
利用数学归纳法,用δl+1δl+1的值一步步的向前求出第l层的δlδl,表达式为:
δl=(∂zl+1∂zl)Tδl+1=(Wl+1)Tδl+1⊙σ′(zl)δl=(∂zl+1∂zl)Tδl+1=(Wl+1)Tδl+1⊙σ′(zl)
有了δlδl的表达式,从而求出W,bW,b的梯度表达式:
∂J(W,b)∂Wl=δl(al−1)T∂J(W,b)∂Wl=δl(al−1)T
∂J(W,b,x,y)∂bl==δl∂J(W,b,x,y)∂bl==δl
有了W,bW,b梯度表达式
文章来源: wenyusuran.blog.csdn.net,作者:文宇肃然,版权归原作者所有,如需转载,请联系作者。
原文链接:wenyusuran.blog.csdn.net/article/details/98487956
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)