图文详解神秘的梯度下降算法原理(附Python代码)

举报
Mr.Winter 发表于 2022/03/22 19:19:40 2022/03/22
【摘要】 图文详解梯度下降算法原理+手推公式,附Python代码实战加深理解

image.png


1 引例

给定如图所示的某个函数,如何通过计算机算法编程求 f ( x ) m i n f(x)_{min}
在这里插入图片描述

2 数值解法

传统方法是数值解法,如图所示

在这里插入图片描述

按照以下步骤迭代循环直至最优:

① 任意给定一个初值 x 0 x_0

② 随机生成增量方向,结合步长生成 Δ x \varDelta x

③ 计算比较 f ( x 0 ) f\left( x_0 \right) f ( x 0 + Δ x ) f\left( x_0+\varDelta x \right) 的大小,若 f ( x 0 + Δ x ) < f ( x 0 ) f\left( x_0+\varDelta x \right) <f\left( x_0 \right) 则更新位置,否则重新生成 Δ x \varDelta x

④ 重复②③直至收敛到最优 f ( x ) m i n f(x)_{min}

数值解法最大的优点是编程简明,但缺陷也很明显:

① 初值的设定对结果收敛快慢影响很大;

② 增量方向随机生成,效率较低;

③ 容易陷入局部最优解;

④ 无法处理“高原”类型函数。

所谓陷入局部最优解是指当迭代进入到某个极小值或其邻域时,由于步长选择不恰当,无论正方向还是负方向,学习效果都不如当前,导致无法向全局最优迭代。就本问题而言如图所示,当迭代陷入 x = x j x=x_j 时,由于学习步长 s t e p step 的限制,无法使 f ( x j ± S t e p ) < f ( x j ) f\left( x_j\pm Step \right) <f(x_j) ,因此迭代就被锁死在了图中的红色区段。可以看出 x = x j x=x_j 并非期望的全局最优。

在这里插入图片描述

若出现下图所示的“高原”函数,也可能使迭代得不到更新。

在这里插入图片描述

3 梯度下降算法

梯度下降算法可视为数值解法的一种改进,阐述如下:

记第 k k 轮迭代后,自变量更新为 x = x k x=x_k ,令目标函数 f ( x ) f(x) x = x k x=x_k 泰勒展开:

f ( x ) = f ( x k ) + f ( x k ) ( x x k ) + o ( x ) f\left( x \right) =f\left( x_k \right) +f'\left( x_k \right) \left( x-x_k \right) +o(x)

考察 f ( x ) m i n f(x)_{min} ,则期望 f ( x k + 1 ) < f ( x k ) f\left( x_{k+1} \right) <f\left( x_k \right) ,从而:

f ( x k + 1 ) f ( x k ) = f ( x k ) ( x k + 1 x k ) < 0 f\left( x_{k+1} \right) -f\left( x_k \right) =f'\left( x_k \right) \left( x_{k+1}-x_k \right) <0

f ( x k ) > 0 f'\left( x_k \right) >0 x k + 1 < x k x_{k+1}<x_k ,即迭代方向为负;反之为正。不妨设 x k + 1 x k = f ( x k ) x_{k+1}-x_k=-f'(x_k) ,从而保证 f ( x k + 1 ) f ( x k ) < 0 f\left( x_{k+1} \right) -f\left( x_k \right) <0 。必须指出,泰勒公式成立的条件是 x x 0 x\rightarrow x_0 ,故 f ( x k ) |f'\left( x_k \right) | 不能太大,否则 x k + 1 x_{k+1} x k x_{k} 距离太远产生余项误差。因此引入学习率 γ ( 0 , 1 ) \gamma \in \left( 0, 1 \right) 来减小偏移度,即 x k + 1 x k = γ f ( x k ) x_{k+1}-x_k=-\gamma f'(x_k)

在工程上,学习率 γ \gamma 要结合实际应用合理选择,== γ \gamma 过大会使迭代在极小值两侧振荡,算法无法收敛; γ \gamma 过小会使学习效率下降,算法收敛慢==。

对于向量 ,将上述迭代公式推广为

x k + 1 = x k γ x k {\boldsymbol{x}_{\boldsymbol{k}+1}=\boldsymbol{x}_{\boldsymbol{k}}-\gamma \nabla _{\boldsymbol{x}_{\boldsymbol{k}}}}

其中 x = ( f ( x ) x 1 , f ( x ) x 2 , , f ( x ) x n ) T \nabla _{\boldsymbol{x}}=\left( \frac{\partial f(\boldsymbol{x})}{\partial x_1},\frac{\partial f(\boldsymbol{x})}{\partial x_2},\cdots \cdots ,\frac{\partial f(\boldsymbol{x})}{\partial x_n} \right) ^T 为多元函数的梯度,故此迭代算法也称为梯度下降算法

在这里插入图片描述
梯度下降算法通过函数梯度确定了每一次迭代的方向和步长,提高了算法效率。但从原理上可以知道,此算法并不能解决数值解法中初值设定、局部最优陷落和部分函数锁死的问题。

4 代码实战:Logistic回归

import pandas as pd
import numpy as np
import os
import matplotlib.pyplot as plt
import matplotlib as mpl
from Logit import Logit

'''
* @breif: 从CSV中加载指定数据
* @param[in]: file -> 文件名
* @param[in]: colName -> 要加载的列名
* @param[in]: mode -> 加载模式, set: 列名与该列数据组成的字典, df: df类型
* @retval: mode模式下的返回值
'''
def loadCsvData(file, colName, mode='df'):
    assert mode in ('set', 'df')
    df = pd.read_csv(file, encoding='utf-8-sig', usecols=colName)
    if mode == 'df':
        return df
    if mode == 'set':
        res = {}
        for col in colName:
            res[col] = df[col].values
        return res

if __name__ == '__main__':
    # ============================
    # 读取CSV数据
    # ============================
    csvPath = os.path.abspath(os.path.join(__file__, "../../data/dataset3.0alpha.csv"))
    dataX = loadCsvData(csvPath, ["含糖率", "密度"], 'df')
    dataY = loadCsvData(csvPath, ["好瓜"], 'df')
    label = np.array([
        1 if i == "是" else 0
        for i in list(map(lambda s: s.strip(), list(dataY['好瓜'])))
    ])

    # ============================
    # 绘制样本点
    # ============================
    line_x = np.array([np.min(dataX['密度']), np.max(dataX['密度'])])
    mpl.rcParams['font.sans-serif'] = [u'SimHei']
    plt.title('对数几率回归模拟\nLogistic Regression Simulation')
    plt.xlabel('density')
    plt.ylabel('sugarRate')
    plt.scatter(dataX['密度'][label==0],
                dataX['含糖率'][label==0],
                marker='^',
                color='k',
                s=100,
                label='坏瓜')
    plt.scatter(dataX['密度'][label==1],
                dataX['含糖率'][label==1],
                marker='^',
                color='r',
                s=100,
                label='好瓜')

    # ============================
    # 实例化对数几率回归模型
    # ============================
    logit = Logit(dataX, label)

    # 采用梯度下降法
    logit.logitRegression(logit.gradientDescent)
    line_y = -logit.w[0, 0] / logit.w[1, 0] * line_x - logit.w[2, 0] / logit.w[1, 0]
    plt.plot(line_x, line_y, 'b-', label="梯度下降法")

    # 绘图
    plt.legend(loc='upper left')
    plt.show()

在这里插入图片描述


🔥 更多精彩专栏

🏠 欢迎加入社区和更多志同道合的朋友交流AI 技术社

👇配套代码 · 优质体验 · 系统知识 请关注👇


【版权声明】本文为华为云社区用户原创内容,未经允许不得转载,如需转载请自行联系原作者进行授权。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。