《卷积神经网络与计算机视觉》 —3.3.2参数学习
【摘要】 本节书摘来自华章计算机《卷积神经网络与计算机视觉》 一书中第3章,第3.3.2节,作者是[澳]萨尔曼·汗(Salman Khan)侯赛因·拉哈马尼(Hossein Rahmani)赛义德·阿法克·阿里·沙(Syed Afaq Ali Shah)穆罕默德·本纳努恩(Mohammed Bennamoun),黄智濒 戴志涛 译。
3.3.2参数学习
可以使用广义delta规则(反向传播算法)来学习反馈网络中的参数,类似于前馈网络。然而,不像在前馈网络中那样通过网络层进行误差反向传播,而是在反馈网络中通过时间执行反向传播。 在每个时刻,RNN的输出被计算为其先前和当前输入的函数。基于时间的反向传播(BPTT)算法不允许学习序列中的长时关系,因为长序列上的误差计算存在困难。具体说来,当迭代次数增加时,BPTT算法遭受梯度消失或梯度爆炸问题的困扰。解决此问题的一种方法是通过截断展开的RNN计算误差信号。这降低了长序列的参数更新过程的成本,但是将每个时刻的输出依赖限制为少数的先前隐藏状态。
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)