多层感知器以及BP算法

举报
HFUT_qianyang 发表于 2019/01/23 15:40:58 2019/01/23
【摘要】 简介多层感知器,是指包含1个或多个隐层的前馈神经网络。多层感知器的特点为:u第0层为输入层,最后一层为输出层,中间层为隐层。 u整个网络无反馈,信号从输入层向输出层单向传播,整个网络为有向无环图。u激活函数多使用连续非线性函数,如logistic函数。u可看成多层logistic回归模型的组合。u具有解决复杂模式分类的能力,解决简单感知不能解决的线性不可分问题。其可以解决单层感知器不能解决异...

简介

多层感知器,是指包含1个或多个隐层的前馈神经网络。

image.png

多层感知器的特点为:

u0层为输入层,最后一层为输出层,中间层为隐层。 

u整个网络无反馈,信号从输入层向输出层单向传播,整个网络为有向无环图。

u激活函数多使用连续非线性函数,如logistic函数。

u可看成多层logistic回归模型的组合。

u具有解决复杂模式分类的能力,解决简单感知不能解决的线性不可分问题。


其可以解决单层感知器不能解决异或的问题(线性不可分问题),可以用来作多元分类问题,例如手写数字识别。

image.png


反向传播算法是在Rumelhart 以及Hinton 在1986年在nature上发表出的一篇文章介绍。在该文章发表之前,神经网络又开始焕发青春(神经网络研究寒冬),原因是该算法可以很好的解决神经网络的模型参数训练问题。以下是该文章:

Rumelhart D E, Hinton G E, Williams R J. Learning representations by back-propagating errors[J]. nature, 1986, 323(6088): 533.

image.png

以下是我个人在学习李宏毅(Hung-yi Lee)教授课程的内容,其课程讲的反向传播算法很生成,也很容易理解。以下是课程的地址:http://speech.ee.ntu.edu.tw/~tlkagk/courses_MLSD15_2.html

同时,李教授在YouTobe上也讲解了很多其他深度学习算法的课程,都非常不错,有兴趣的读者可以观看:https://www.youtube.com/channel/UC2ggjtuuWvxrHHHiaDH1dlQ


学习神经网络,我们知道常用的梯度下降算法,首先需要定义损失函数。如下图所示,我们有多个样本,我们定义所有样本的总损失函数:

image.png

image.png

image.png

image.png

image.png



image.png

image.png

image.png

image.png

image.png


image.png



image.png

image.png

image.png


image.png

image.png

image.png

image.png


参考内容:

https://www.youtube.com/channel/UC2ggjtuuWvxrHHHiaDH1dlQ

http://speech.ee.ntu.edu.tw/~tlkagk/courses/MLDS_2015_2/Lecture/DNN backprop.ecm.mp4/index.html


另外本博客的CSDN地址为:https://blog.csdn.net/qy20115549/article/details/86499891

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。