DL之DNN优化技术:神经网络算法简介之GD/SGD算法的简介、代码实现、代码调参之详细攻略

举报
一个处女座的程序猿 发表于 2021/03/28 01:16:06 2021/03/28
【摘要】 DL之DNN优化技术:神经网络算法简介之GD/SGD算法的简介、代码实现、代码调参之详细攻略     目录 GD算法的简介 GD/SGD算法的代码实现 1、Matlab编程实现 GD算法的改进算法 GD算法中的超参数     GD算法的简介       GD算法,是求解非线性无约束优化问题的基本方法,最小化损失函数的一种常用的一阶优化方法。如图所示,...

DL之DNN优化技术:神经网络算法简介之GD/SGD算法的简介、代码实现、代码调参之详细攻略

 

 

目录

GD算法的简介

GD/SGD算法的代码实现

1、Matlab编程实现

GD算法的改进算法

GD算法中的超参数


 

 

GD算法的简介

      GD算法,是求解非线性无约束优化问题的基本方法,最小化损失函数的一种常用的一阶优化方法。如图所示,找出最陡峭的方向作为下山的方向。

1、如何求梯度?

沿着梯度方向,函数值下降最快。

2、二元曲面

具有两个输入权重的线性神经元的误差曲面,Error surface of a linear neuron with two input weights

3、GD算法容易陷入局部最小值

 

 

GD/SGD算法的代码实现

1、Matlab编程实现


  
  1. %% 最速下降法图示
  2. % 设置步长为0.1,f_change为改变前后的y值变化,仅设置了一个退出条件。
  3. syms x;f=x^2;
  4. step=0.1;x=2;k=0; %设置步长,初始值,迭代记录数
  5. f_change=x^2; %初始化差值
  6. f_current=x^2; %计算当前函数值
  7. ezplot(@(x,f)f-x.^2) %画出函数图像
  8. axis([-2,2,-0.2,3]) %固定坐标轴
  9. hold on
  10. while f_change>0.000000001 %设置条件,两次计算的值之差小于某个数,跳出循环
  11. x=x-step*2*x; %-2*x为梯度反方向,step为步长,!最速下降法!
  12. f_change = f_current - x^2; %计算两次函数值之差
  13. f_current = x^2 ; %重新计算当前的函数值
  14. plot(x,f_current,'ro','markersize',7) %标记当前的位置
  15. drawnow;pause(0.2);
  16. k=k+1;
  17. end
  18. hold off
  19. fprintf('在迭代%d次后找到函数最小值为%e,对应的x值为%e\n',k,x^2,x)

2、基于python实现SGD算法


  
  1. class SGD:
  2. def __init__(self, lr=0.01):
  3. self.lr = lr #学习率,实例变量
  4. #update()方法,在SGD中会被反复调用
  5. def update(self, params, grads):
  6. for key in params.keys():
  7. params[key] -= self.lr * grads[key] #参数params、grads依旧是字典型变量,按params['W1']、grads['W1']的形式,分别保存了权重参数和它们的梯度。
  8. '伪代码:神经网络的参数的更新'
  9. network = TwoLayerNet(...)
  10. optimizer = SGD()
  11. for i in range(10000):
  12. ...
  13. x_batch, t_batch = get_mini_batch(...) # mini-batch
  14. grads = network.gradient(x_batch, t_batch)
  15. params = network.params
  16. optimiz

 

 

GD算法的改进算法

1、SGD算法
(1)、mini-batch
如果不是每拿到一个样本即更改梯度,而是若干个样本的平均梯度作为更新方向,则是mini-batch梯度下降算法。



(1)、SGD与学习率、Rate、Loss

 

 

GD算法中的超参数

1、学习率

(1)、固定学习率实验的C代码

(2)、回溯线性搜索(Backing Line Search)

(3)、二次插值线性搜索:回溯线性搜索的思考——插值法,二次插值法求极值


 

 

 

 

 

 

 

 

 

 

 

文章来源: yunyaniu.blog.csdn.net,作者:一个处女座的程序猿,版权归原作者所有,如需转载,请联系作者。

原文链接:yunyaniu.blog.csdn.net/article/details/79152752

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。