DL:深度学习(神经网络)的简介、基础知识(神经元/感知机、训练策略、预测原理)、算法分类、经典案例应用之详细攻略

举报
一个处女座的程序猿 发表于 2021/03/27 22:31:34 2021/03/27
【摘要】 DL:深度学习(神经网络)的简介、基础知识(神经元/感知机、训练策略、预测原理)、算法分类、经典案例应用之详细攻略   目录 深度学习(神经网络)的简介 1、深度学习浪潮兴起的三大因素 深度学习(神经网络)的基础知识(相关概念、训练策略) 1、神经网络的基础知识 2、神经元的结构 3、感知机 4、万能逼近定理 5、神经网络训练 6、神经网络学习 7、神...

DL:深度学习(神经网络)的简介、基础知识(神经元/感知机、训练策略、预测原理)、算法分类、经典案例应用之详细攻略

 

目录

深度学习(神经网络)的简介

1、深度学习浪潮兴起的三大因素

深度学习(神经网络)的基础知识(相关概念、训练策略)

1、神经网络的基础知识

2、神经元的结构

3、感知机

4、万能逼近定理

5、神经网络训练

6、神经网络学习

7、神经网络的前馈运算与反向传播

8、激活函数

深度学习(神经网络)的算法分类

1、常用的神经网络模型概览

深度学习(神经网络)的经典案例应用


 

 

深度学习(神经网络)的简介

       深度学习(Deep Learning, DL)或阶层学习(hierarchical learning)是机器学习的技术和研究领域之一,通过建立具有阶层结构的人工神经网络(Artifitial Neural Networks, ANNs),在计算系统中实现人工智能  。由于阶层ANN能够对输入信息进行逐层提取和筛选,因此深度学习具有表征学习(representation learning)能力 ,可以实现端到端的监督学习和非监督学习 。此外,深度学习也可参与构建强化学习(reinforcement learning)系统,形成深度强化学习  。

       深度学习所使用的阶层ANN具有多种形态,其阶层的复杂度被通称为“深度”  。按构筑类型,深度学习的形式包括多层感知器、卷积神经网络、循环神经网络、深度置信网络和其它混合构筑  。深度学习使用数据对其构筑中的参数进行更新以达成训练目标,该过程被通称为“学习”  。学习的常见方法为梯度下降算法及其变体 ,一些统计学习理论被用于学习过程的优化 [9]  。

        在应用方面,深度学习被用于对复杂结构和大样本的高维数据进行学习,按研究领域包括计算机视觉、自然语言处理、生物信息学、自动控制等,且在人像识别、机器翻译、自动驾驶等现实问题中取得了成功。 

1、深度学习浪潮兴起的三大因素

  • 海量的数据
  • 不断提升的算法能力
  • 高性能计算硬件的实现:GPU、TPU

 

 

深度学习(神经网络)的基础知识(相关概念、训练策略)

       深度学习的实质是构建具有多个隐藏层的机器学习模型,通过海量的训练数据来学习更有用的特征,从而最终提升分类或预测的准确性。“深度模型”是手段“表示学习”是目的
       深度学习与传统的浅层学习的不同在于:

  • (1) 强调了模型结构的深度,有2层以上的隐藏层;
  • (2) 明确突出了表示学习的重要性。通过逐层特征变换,将样本在原空间的特征表示变换到一个新的特征空间,使分类或预测更加容易。

DL之DNN优化技术:神经网络算法简介之GD/SGD算法的简介、代码实现、代码调参之详细攻略
DL之DNN:BP类神经网络理解之不需要额外任何文字,只需要八张图讲清楚BP类神经网络的工作原理

 

 

1、神经网络的基础知识

  • 神经元
  • 感知机
  • 激活函数:Sigmoid、tanh、ReLU、Leaky ReLU、ELU、Softmax。
  • 多层感知机:
  • 万能逼近定理:

 

2、神经元的结构

生物神经元包括细胞体和突起两个部分,突起又包括树突(接收信号)和轴突(传出信号)。

  • 轴突记录了神经元间联系的强弱。只有达到一定的兴奋程度,神经元才向外界传输信息。
  • 神经元之间的信号通过突触传递。

3、感知机

DL之Perceptron:Perceptron感知器(感知机/多层感知机/人工神经元)的简介、原理、案例应用(相关配图)之详细攻略

 

4、万能逼近定理

 (Universal approximation theorem)

  • 只需一个包含单个隐藏层的前馈神经网络,即可逼近任意一个连续函数
  • 尽管仅有一个隐藏层的前馈网络足以表示任何函数,但是该隐藏层的神经元数目可能非常多,从而导致网络无法学习或正确泛化。

 

5、神经网络训练

(1)、损失函数:
平均损失函数
绝对值损失函数
交叉熵损失函数:softmax回归,独热编码。

(2)、优化目标

(3)、梯度下降:

 

  • 梯度下降各种优化算法:Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam

(4)、反向传播法:计算图解释

 

1、神经网络训练的优化目标

 

 

 

6、神经网络学习

(1)、通过调整神经元的参数,使得网络对给定输入可产生期望输出。

(2)、学习层次化的表示(表征)

     

 

7、神经网络的前馈运算与反向传播

前馈运算和反向传播:在训练网络过程中所使用的。如果经过训练模型,网络稳定下来以后,就可以把参数固定下来,此时就不再需要反向传播了,只需要前馈运算进行推理和预测即可!
 

 

 

8、激活函数

DL学习—AF:理解机器学习中常用的激活函数(sigmoid、softmax等)简介、应用、计算图实现、代码实现详细攻略

 

 

 

 

深度学习(神经网络)的算法分类

         深度学习的形式包括多层感知器、卷积神经网络、循环神经网络、深度置信网络和其它混合构筑  。
          前馈神经网络(NN),而是和循环神经网络(RNN)的概念是相对的。而反向传播方法可以用在FF网络中,此时,基于反向传播算法的前馈神经网络,被称为BP神经网络。

1、常用的神经网络模型概览

DL:神经网络所有模型(包括DNN、CNN、RNN等)的简介(概览)、网络结构简介、使用场景对比之详细攻略

1、DNN
DL之DNN:DNN深度神经网络算法的简介、相关论文、设计思路、关键步骤、实现代码等配图集合之详细攻略

2、CNN
DL之CNN:计算机视觉卷积神经网络算法CNN算法常见结构、发展、CNN优化技术、案例应用之详细攻略

3、RNN
DL之RNN:RNN算法的简介、相关论文、相关思路、关键步骤、配图集合+TF代码定义之详细攻略

4、DBN

 

 

 

深度学习(神经网络)的经典案例应用

后期更新……

 

 

 

 

文章来源: yunyaniu.blog.csdn.net,作者:一个处女座的程序猿,版权归原作者所有,如需转载,请联系作者。

原文链接:yunyaniu.blog.csdn.net/article/details/78939050

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。