ML岗位面试:上海某科技公司算法岗位(偏AI算法,国企)技术面试之BN层的认知、BP的推导、GD优化的几种改进等

举报
一个处女座的程序猿 发表于 2021/03/27 01:46:40 2021/03/27
【摘要】 ML岗位面试:上海某科技公司算法岗位(偏AI算法,国企)技术面试之BN层的认知、BP的推导、GD优化的几种改进等   导读:关于神经网络,问的比较深,因为博主做过总结,所以用自己的语言和案例解释的,回答的还算比较全吧。     BN层的认知 参考博主以前写的文章BN层结构详解—解决反向传播过程中的【梯度消失】与【梯度爆炸】B...

ML岗位面试:上海某科技公司算法岗位(偏AI算法,国企)技术面试之BN层的认知、BP的推导、GD优化的几种改进等

 

导读:关于神经网络,问的比较深,因为博主做过总结,所以用自己的语言和案例解释的,回答的还算比较全吧。

 

 

BN层的认知

参考博主以前写的文章
BN层结构详解—解决反向传播过程中的【梯度消失】与【梯度爆炸】
BN层(批量标准化)采用的理由—旧解释:解决内部协变量偏移
BN层(批量标准化)采用的理由—新解释: BN层优化更加平滑

 

 

 

BP的推导

DL之BP:神经网络算法简介之BP算法简介(链式法则/计算图解释)、案例应用之详细攻略
DL之DNN之BP:神经网络算法简介之BP算法/GD算法之不需要额外任何文字,只需要八张图讲清楚BP类神经网络的工作原理

 

 

GD优化的几种改进

参考博主以前写的文章
DL之DNN优化技术:GD、SGD、Momentum、NAG、Ada系列、RMSProp各种代码实现之详细攻略
DL之DNN优化技术:神经网络算法简介之GD/SGD算法(BP的梯度下降算法)的简介、理解、代码实现、SGD缺点及改进(Momentum/NAG/Ada系列/RMSProp)之详细攻略

1、Momentum(根据历史梯度进行加强)—动量有助于在正确方向上加速梯度,从而越过沟壑
2、NAG—下山过程中,根据对下一步要到达的点的预测,来自适应调整速度
3、Adagrad—对不同的参数(频繁/非频繁特征相关的参数)调整不同的学习率
4、Adadelta—Adagrad的改进版+引入时间窗(衰减因子)—解决Adagrad的学习率急剧下降
5、RMSProp—自适应学习率方法—解决Adagrad的学习率急剧下降
6、Adam—计算每个参数的自适应学习率的方法+本质上是带动量项的RMSprop

 

 

 

 

 

 

 

 

 

 

文章来源: yunyaniu.blog.csdn.net,作者:一个处女座的程序猿,版权归原作者所有,如需转载,请联系作者。

原文链接:yunyaniu.blog.csdn.net/article/details/102779285

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。