机器学习中的常见问题—损失函数

举报
风吹稻花香 发表于 2021/06/04 23:29:32 2021/06/04
【摘要】 机器学习中的常见问题——损失函数 一、分类算法中的损失函数 在分类算法中,损失函数通常可以表示成损失项和正则项的和,即有如下的形式: 其中,为损失项,为正则项。的具体形式如下: 对于损失项,主要的形式有: 0-1损失Log损失Hinge损失指...
机器学习中的常见问题——损失函数

一、分类算法中的损失函数

在分类算法中,损失函数通常可以表示成损失项和正则项的和,即有如下的形式:

其中,为损失项,为正则项。的具体形式如下:

对于损失项,主要的形式有:

  • 0-1损失
  • Log损失
  • Hinge损失
  • 指数损失
  • 感知损失

1、0-1损失函数

在分类问题中,可以使用函数的正负号来进行模式判断,函数值本身的大小并不是很重要,0-1损失函数比较的是预测值与真实值的符号是否相同,0-1损失的具体形式如下:

以上的函数等价于下述的函数:

0-1损失并不依赖值的大小,只取决于的正负号。0-1损失是一个非凸的函数,在求解的过程中,存在很多的不足,通常在实际的使用中将0-1损失函数作为一个标准,选择0-1损失函数的代理函数作为损失函数。

2、Log损失函数

2.1、Log损失

Log损失是0-1损失函数的一种代理函数,Log损失的具体形式如下:

运用Log损失的典型分类器是Logistic回归算法。

2.2、Logistic回归算法的损失函数

对于Logistic回归算法,分类器可以表示为:

其中,。为了求解其中的参数,通常使用极大似然估计的方法,具体的过程如下:

1、似然函数

其中,

2、log似然

3、需要求解的是使得log似然取得最大值的,可以转换为求最小值:

这便是交叉熵的具体形式。

2.3、两者的等价

由于Log损失的具体形式为:

其中,,,Log损失函数的具体形式为:

Logistic回归与Log损失具有相同的形式,故两者是等价的。Log损失与0-1损失的关系可见下图。

3、Hinge损失函数

3.1、Hinge损失

Hinge损失是0-1损失函数的一种代理函数,Hinge损失的具体形式如下:

运用Hinge损失的典型分类器是SVM算法。

3.2、SVM的损失函数

对于软间隔支持向量机,允许在间隔的计算中出现少许的误差,其优化的目标为:

约束条件为:

3.3、两者的等价

对于Hinge损失:

优化的目标是要求:

在上述的函数中引入截距,即:

并在上述的最优化问题中增加正则,即变成:

至此,令下面的不等式成立:

约束条件为:

则Hinge最小化问题变成:

约束条件为:

这与软间隔的SVM是一致的,说明软间隔SVM是在Hinge损失的基础上增加了正则。

4、指数损失

4.1、指数损失

指数损失是0-1损失函数的一种代理函数,指数损失的具体形式如下:

运用指数损失的典型分类器是AdaBoost算法。

4.2、AdaBoost基本原理

AdaBoost算法是对每一个弱分类器以及每一个样本都分配了权重,对于弱分类器的权重为:

其中,表示的是误分类率。对于每一个样本的权重为:

最终通过对所有分类器加权得到最终的输出。

4.3、两者的等价

对于指数损失函数:

可以得到需要优化的损失函数:

假设表示已经学习好的函数,则有:

而:

通过最小化,可以得到:

将其代入上式,进而对求最优解,得:

其中,

可以发现,其与AdaBoost是等价的。

5、感知损失

5.1、感知损失

感知损失是Hinge损失的一个变种,感知损失的具体形式如下:

运用感知损失的典型分类器是感知机算法。

5.2、感知机算法的损失函数

感知机算法只需要对每个样本判断其是否分类正确,只记录分类错误的样本,其损失函数为:

5.3、两者的等价

对于感知损失:

优化的目标为:

在上述的函数中引入截距,即:

上述的形式转变为:

对于max函数中的内容,可知:

对于错误的样本,有:

类似于Hinge损失,令下式成立:

约束条件为:

则感知损失变成:

即为:

Hinge损失对于判定边界附近的点的惩罚力度较高,而感知损失只要样本的类别判定正确即可,而不需要其离判定边界的距离,这样的变化使得其比Hinge损失简单,但是泛化能力没有Hinge损失强。

这里写图片描述


    
  1. import matplotlib.pyplot as plt
  2. import numpy as np
  3. xmin, xmax = -4, 4
  4. xx = np.linspace(xmin, xmax, 100)
  5. plt.plot([xmin, 0, 0, xmax], [1, 1, 0, 0], 'k-', label="Zero-one loss")
  6. plt.plot(xx, np.where(xx < 1, 1 - xx, 0), 'g-', label="Hinge loss")
  7. plt.plot(xx, np.log2(1 + np.exp(-xx)), 'r-', label="Log loss")
  8. plt.plot(xx, np.exp(-xx), 'c-', label="Exponential loss")
  9. plt.plot(xx, -np.minimum(xx, 0), 'm-', label="Perceptron loss")
  10. plt.ylim((0, 8))
  11. plt.legend(loc="upper right")
  12. plt.xlabel(r"Decision function $f(x)$")
  13. plt.ylabel("$L(y, f(x))$")
  14. plt.show()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16

参考文章

文章来源: blog.csdn.net,作者:网奇,版权归原作者所有,如需转载,请联系作者。

原文链接:blog.csdn.net/jacke121/article/details/80245459

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

举报
请填写举报理由
0/200