梯度中心化优化

举报
风吹稻花香 发表于 2021/06/04 22:59:38 2021/06/04
【摘要】   梯度中心化(gradient centralization,GC) 开源实现: https://github.com/Yonghongwei/Gradient-Centralization/blob/31caa1d49e7760e62a64a54eabc8f2403fddf38a/GC_code/Fine-grained_classification/SG...

 

梯度中心化(gradient centralization,GC)

开源实现:

https://github.com/Yonghongwei/Gradient-Centralization/blob/31caa1d49e7760e62a64a54eabc8f2403fddf38a/GC_code/Fine-grained_classification/SGD.py

效果还没试

 

下表 8 展示了 Faster R-CNN 的平均精度(Average Precision,AP)。我们可以看到,在目标检测任务上,使用 GC 训练的所有骨干网络均实现了约 0.3%-0.6% 的性能增益。


SGDM 和 SGDM+GC

研究者开源了论文中所提方法,使用 PyTorch 实现。包括 SGD_GC、SGD_GCC、SGDW_GCC、Adam_GC、Adam_GCC、AdamW_GCC 和 Adagrad_GCC 多种优化器,其相应实现在 SGD.py 中提供。后缀为「_GC」的优化器使用 GC 对卷积层和全连接层进行优化,而后缀为「_GCC」的优化器仅可用于卷积层。
 

 

文章来源: blog.csdn.net,作者:网奇,版权归原作者所有,如需转载,请联系作者。

原文链接:blog.csdn.net/jacke121/article/details/105435069

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。