ML之LF:机器学习中常见的损失函数(连续型/离散型)的简介、损失函数/代价函数/目标函数之间区别、案例应用之详细攻略

举报
一个处女座的程序猿 发表于 2021/03/28 01:26:14 2021/03/28
【摘要】 ML之LF:机器学习中常见的损失函数(连续型/离散型)的简介、损失函数/代价函数/目标函数之间区别、案例应用之详细攻略       目录 损失函数的简介 损失函数/代价函数/目标函数之间区别 损失函数的案例应用       损失函数的简介       损失函数,又称目标函数,或误差函数,用来度量网络实际输出与期望输出之间的不一致程度,指导网络的参数学...

ML之LF:机器学习中常见的损失函数(连续型/离散型)的简介、损失函数/代价函数/目标函数之间区别、案例应用之详细攻略

 

 

 

目录

损失函数的简介

损失函数/代价函数/目标函数之间区别

损失函数的案例应用


 

 

 

损失函数的简介

      损失函数,又称目标函数,或误差函数,用来度量网络实际输出与期望输出之间的不一致程度,指导网络的参数学习和表示学习。

0、损失函数特点

  • 损失函数是一个非负实值函数。
  • 针对不同的问题,会采用不同的损失函数
    – 回归问题(连续型):平方损失等
    – 分类问题(离散型):对数损失、交叉熵等
  • 不同的损失函数会影响网络的训练速度和网络的泛化性能

1、损失函数-连续型输出

平方损失函数(Square Loss)

绝对值损失函数(Absolute Value Loss)

 

2、损失函数-离散型输出

交叉熵损失(Cross-Entropy Loss; Log Loss),交叉熵损失:真实概率?? ; 模型预测概率??

熵:用于度量变量的不确定性程度
交叉熵:主要用于度量两个概率分布间的差异性信息

(1)、二分类问题的交叉熵损失函数:
          对于样本(?, ?),?为样本, ?为对应的标签, 在二分类问题中,其取值的集合可能为{0,1}。假设某个样本的真实标签为?,该样本的? = 1的概率为?,则该样本的损失函数为:− (????(?) + 1 − ? log(1 − ?))。

2.1、交叉熵和Softmax在多分类问题的结合应用

ML之SR:Softmax回归(Softmax Regression)的简介、使用方法、案例应用之详细攻略

 

 

损失函数/代价函数/目标函数之间区别

损失函数

用来估计你模型的预测值与真实值Y的不一致程度,它是一个非负实数值函数。损失函数越小,模型的鲁棒性就越好。是定义在单个样本上的,算的是一个样本的误差。

(1)、均方误差:也叫平方损失,是回归任务中最常见的性能度量。我们把均方误差当做线性回归的损失函数。因此我们可试图让其最小化

代价函数 定义在整个训练集上的,是所有样本误差的平均,也就是损失函数的平均。
目标函数

定义为最终需要优化的函数。等于结构风险Cost Function+正则化项。
正则化项:我们直接最小化经验风险很容易产生过拟合现象,所以一般需要在经验风险上加正则化项或损失,结构风险定义为


其中为模型的复杂度。模型越复杂,复杂度越大。复杂度表示了对复杂模型的惩罚。结构风险最小化,需要经验风险与模型复杂度同时最小。

 

 

 

损失函数的案例应用

后期更新……

 

 

 

 

 

文章来源: yunyaniu.blog.csdn.net,作者:一个处女座的程序猿,版权归原作者所有,如需转载,请联系作者。

原文链接:yunyaniu.blog.csdn.net/article/details/80277886

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。