多任务学习中的目标权重平衡

举报
Euphonious 发表于 2021/04/30 10:59:00 2021/04/30
【摘要】 1      简介:多任务学习包括深度网络的构建和优化策略的选择,本文主要讲解优化策略部分,介绍一种平衡多个任务的损失函数的方法:动态权重平均。 2      优化策略(task balancing): 传统多任务目标函数构造的问题:多任务损失函数定义如下:相应的,随机梯度下降的权重更新公式如下:(注释:这里是共享层最后一层的权重,具体和多任务学习的网络构造有关,这里不做具体介绍。)当某一个...

1      简介:

多任务学习包括深度网络的构建和优化策略的选择,本文主要讲解优化策略部分,介绍一种平衡多个任务的损失函数的方法:动态权重平均

 

2      优化策略(task balancing):

 

  • 传统多任务目标函数构造的问题:

多任务损失函数定义如下:

相应的,随机梯度下降的权重更新公式如下:

(注释:这里是共享层最后一层的权重,具体和多任务学习的网络构造有关,这里不做具体介绍。)

当某一个任务的梯度占据主导地位,或者任务梯度冲突时,权重更新可能并不是最优的。

 

  • 改进方法(动态权重平均,Dynamic Weight Averaging(DWA)

动态权重平均通过调整每个任务的权重$w_i$来实现每个任务学习速率相近。


核心公式如下:

其中,$w_i$为每个任务的权重,N为任务个数,T为一个常数,T越大,每个任务的损失权重越均匀。

$r_n(t-1)$为连续两个时刻loss相除的结果,越小,表明训练速度越快。

所以可以看出,训练速度越快的任务,对应的权重就会变小,这样就达到了平衡每个任务学习速率的目的。

 

 

 

3      参考文献

[1]. Vandenhende S, Georgoulis S, Van Gansbeke W, et al. Multi-Task Learning for Dense Prediction Tasks: A Survey[J]. arXiv preprint arXiv:2004.13379, 2020.

[2]. Liu S, Johns E, Davison A J. End-to-end multi-task learning with attention[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019: 1871-1880.

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。