机器学习:一步步教你理解反向传播方法

举报
风吹稻花香 发表于 2021/06/05 01:37:34 2021/06/05
【摘要】 机器学习:一步步教你理解反向传播方法 时间 2016-09-13 00:35:59   Yong Yuan's blog 原文   http://yongyuan.name/blog/back-propagtion.html 主题  数据挖掘 ...

机器学习:一步步教你理解反向传播方法

在阅读反向传播方法的时候,看到了这篇通过示例给出反向传播的博文 A Step by Step Backpropagation Example ,在这篇博文中,作者通过一个简单的示例,给出了反向传播的过程的过程,非常的清晰,遂结合自己的理解翻译之,希望对反向传播方法有所理解的朋友有些许帮助。

背景

反向传播在神经网络的训练过程中虽然用得如此之多,但是在网上还很少有通过具体的实例来解释反向传播怎么工作的博文。所以在这篇文章中,我会尝试用一个具体的例子来解释反向传播过程,这样有需要的朋友就可以通过自己的计算过程来判断自己对于反向理解的过程是否到位。

你可以在我的Gihub上找个我写的反向传播的Python实现代码。

概览

在这篇博文中,我们会使用有2个输入单元的神经网络,2个隐层神经元以及2个输出神经元。此外,隐层和输出神经元会包含一个偏置,下面是基本的网络结构:

为了便于后面说明的说明,我们对该网络设置一些初始的权重、偏置以及输入和输出:

反向传播的目标是对权重进行优化,使得神经网络能够学习到从任意的输入到输出的准确映射。

在这篇博文中,我们仅适用一个简单的训练集,即输入为0.05和0.10,我们希望网络的输出为0.01和0.99(即输入的样本是两个: (0.05, 0.99), (0.10, 0.99))。

前向传播

我们首先来看看对于给定的初始化的权重和偏置,网络对于输入0.05和0.10的输出是啥。我们输入输进网络中。

我们先计算从全部网络的输入到隐层的每一个神经元,激活函数我们采用logistic函数,对于从隐层到输出层,我们重复这一过程。

全部的网络输入也被称为网络的输入 Derivation of Backpropagation

下面是对于h1h1全部网络输入的输入计算过程:

(译者注:类比到CNN网络里,这个过程就是卷积过程,得到特征响应图)

然后我们将其输入到激活函数中,得到输出h1h1:

(译者注:类比到CNN网络里,这个过程特征响应图经过激活函数运算的过程)

对于h2h2通过上面相同的过程,我们可以得到:

对于输入层神经元,将隐层的输出作为输入(译者注:在CNN中,还需要经过池化后才能作为下一层的输入,把为啥需要池化的问题抛出来,这里译者不就解释了),重复上面相同的过程,我们可以得到:

同样的,重复上面相同的过程,我们可以得到O2O2:

计算总误差

现在对于输出的每一个神经元,我们使用平方误差函数求和来计算总的误差:

output就是我们的预测label,而target就是groundtruth。1212使得我们在求骗到的时候可以消去2,不影响模型参数的结果求解。

对于第一个神经元的输出O1O1真实值是0.01,而网络的输出是0.75136507, 因而第一个神经元的输出误差为:

重复上面过程,可以得到第二个神经元的输出O2O2为:

所以整个神经网络的误差求和为:

反向传播

反向传播的目标是:通过更新网络中的每一个权重,使得最终的输出接近于groundtruth,这样就得到整个网络的误差作为一个整体进行了最小化。

输出层

我们先来考察w5w5,我们想知道对于w5w5的改变可以多大程度上影响总的误差,也就是Etotalw5∂Etotal∂w5

通过使用链式法则,我们可以得到:

为了更直观的表述上面链式法则的过程,我们对其进行可视化:

我们对上面链式法则得到的每一项进行分别计算。首先,整体误差关于各个神经元的输出改变了?

logistic函数的偏导数为输出乘以1减去输出,即:

最后,整个网络的输入O1O1关于w5w5改变了多少呢?

你也会看到用delta规则表示的形式:

我们可以将EtotaloutO1∂Etotal∂outO1outO1netO1∂outO1∂netO1写为EtotalnetO1∂Etotal∂netO1,并用δO1δO1表示它,从而可以将上面的式子表示为:

因此有:

有一些论文中通过将负号从δδ中提出来将其也可以写为下面这种形式:

为了减小误差,我们将w5w5原来的值减去目前的权重(通常会乘上一个学习率ηη,这里我们将其设置为0.5):

学习率在不同的文章中可以记法不一样,有用αα的,有用ηη的,有用ϵϵ的。

重复上面的过程,我们可以得到更新后的w6w6w7w7w8w8

注意,在我们继续向前推进反向传播的时候,在要使用到w5w5w6w6w7w7w8w8的地方,我们仍然使用的是原来的权重,而不是更新后的权重。

隐层

我们继续推进反向传播来计算w1w1w2w2w3w3w4w4更新的权重:

同样使用链式法则,我们可以得到:

可视化上面的链式法则:

对于这一层(隐层)的更新我们采用上面输出层相似的处理方式,不过会稍有不同,这种不同主要是因为每一个隐层神经元的输出对于最终的输出都是有贡献的。我们知道outh1outh1既影响outO1outO1也影响outO2outO2,因此Etotalouth1∂Etotal∂outh1需要同时考虑到这两个输出神经元影响:

又由于:

我们可以用前面计算的值来计算EO1netO1∂EO1∂netO1:

又因为netO1outh1∂netO1∂outh1等于w5w5:

将上面每步分开算的结果合起来得:

与上面的步骤一样,我们可以得到:

因此:

现在我们已经有了Etotalouth1∂Etotal∂outh1,我们还需要为每一个需要更新的权重计算outh1neth1∂outh1∂neth1neth1w∂neth1∂w

如我们前面对于输出神经元所做的一样,我们计算h1h1的全部输入关于w1w1求偏导:

将上面计算的各个部分合起来:

你可以可能会看到下面的这种写法:

现在我们可以更新w1w1:

根据上面相同的计算过程,我们可以得到w2w2w3w3w4w4

现在,我们已经更新了所有的权重,在最初,在我们的输入为0.05和0.1的时候,网络的误差为0.298371109, 经过第一次方向传播后,网络的误差降低到了0.291027924。虽然看起来下降得不是很多,但是在重复这个过程10000次以后,网络的误差就下降到了0.000035085。这个时候,当我们把0.05和0.1再输入进去,两个神经元的输出为0.015912196(vs 0.01)和0.984065734(vs 0.99)。

如果你在读上面的博文的时候发现有任何错误,不要犹豫告诉我。如果你有更清楚的想读者讲解的方式,不要犹豫给我留言。谢谢!

文章来源: blog.csdn.net,作者:网奇,版权归原作者所有,如需转载,请联系作者。

原文链接:blog.csdn.net/jacke121/article/details/54935142

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。