AI在垃圾分类中的应用小侃(海华大赛获奖者系列分享二)

举报
chenjinge 发表于 2020/07/06 14:38:46 2020/07/06
【摘要】 01赛题介绍随着我国经济的发展,城市化进程不断加速,生活垃圾对城市环境的威胁日益增加。如何高效、环保地解决处理生活垃圾迫在眉睫。因此垃圾的智能分类对于智能化分拣垃圾、提高垃圾分拣效率就显得十分重要。为了探究这一问题,由中关村海华信息研究院、清华大学交叉信息研究院以及Biendata举办的2020海华AI垃圾分类大赛吸引了大量工程师以及高校学生的参与。由华为NAIE平台提供的算力支持,也为比赛...

01赛题介绍


随着我国经济的发展,城市化进程不断加速,生活垃圾对城市环境的威胁日益增加。如何高效、环保地解决处理生活垃圾迫在眉睫。因此垃圾的智能分类对于智能化分拣垃圾、提高垃圾分拣效率就显得十分重要。为了探究这一问题,由中关村海华信息研究院、清华大学交叉信息研究院以及Biendata举办的2020海华AI垃圾分类大赛吸引了大量工程师以及高校学生的参与。华为NAIE平台提供的算力支持,也为比赛的顺利开展奠定了基础。该比赛旨在激发更广泛的科研探索热情,挖掘更有价值的算法优化和创新。



02数据分析


我们参与的是该比赛的专业赛道,因此有两种数据集可以使用。一种为单类数据集,共80,000张垃圾图像,每张图像中只有一个类别。此外,还提供了图中唯一对象的边框的信息。多类别数据集包含训练集中的2998张垃圾图像,验证集中的1000张垃圾图像,测试集中的1000张垃圾图像,每幅图像最多包含20个类别。


不同于VOC、COCO、OID等常见的目标数据集,这些数据集具有不同的特点:


1. 对于205个类别,单类垃圾数据集的大小就足够了。然而,这个数据集中的垃圾图像与多类数据集中的垃圾图像有很大的不同,即使是同一类别的垃圾。直接使用该数据集来训练模型可能会导致特征不匹配和性能下降(图1)。

1111111111111.jpg22222222222222222.jpg



图1:左图为多类数据集中的镜子,右图为单类数据集中的镜子


2. 多类数据集在训练集中只包含2998张垃圾图像。而在125个类别的情况下,该数据量是比较小的,且类别存在不平衡的现象。因此大规模数据集的迁移学习和减少过拟合的技术是非常需要的。


3. 在大多数多类图像中,垃圾密集地堆积在图像的中心,并且形状大小不一。它会导致垃圾相互遮挡,使检测任务更加困难。并且每张图像的背景都比较干净(图2)。

3333333333333333.jpg

      


图2:多类数据集图像示例


4. 数据集中存在许多混淆类别的垃圾,导致类别标签的不一致性。人工检查和更正标签可能有帮助,但也可能存在导致数据不匹配的风险(图3)。

image.png44444444444.jpg




图3:左右图为同一类物体,但在多类数据集中

左图被标定为食品塑料盒,而右图被标定为食品外包装盒


03Baseline


为了完成该比赛的任务,我们借鉴了其他大型的目标检测竞赛中的解决方案,如COCO、Objects365和OID。在这些解决方案中,我们借鉴了百度在OID 2019中的解决方案。Baseline模型选用的是基于Class-aware的Cascade R-CNN,且同时使用ResNet200-Vd作为模型的backbone并且加入了FPN、Dcnv2和Non-local方法来提高模型的整体效果。训练使用多尺度训练(480:1440:32)和常见的数据增强方法如水平翻转。


迁移学习可以在小数据集上获得良好的性能,因此在该比赛中使用该方法理论上应当可以取得较好的效果。因此,我们选择了COCO、Objects365和OID混合的预训练模型。具体效果如表1所示。


模型

预训练参数

排行榜   AP

Baseline

+ RandomVFlip

+ AutoAugment

COCO

0.898

Mixture

0.906

表1:使用不同预训练参数的Baseline的AP


训练方面,由于庞大的模型以及多尺度训练方法,所以在Tesla V100 上batch size只能设置为1,这里感谢华为NAIE提供的算力支持。使用引用动量的SGD作为训练的优化器。基础学习率设置为0.001,权重衰减速率为0.0001。使用了Cosine annealing with warmup的学习率调度策略,从0.0001的学习率开始,1000次迭代后到达基础学习率。我们训练Baseline进行了120K次迭代,训练时间大约40个小时。


04数据增强方案


为了减少在如此小的数据集上的过拟合,就需要大量的数据扩充。我们尝试了许多数据增强方案,最终发现RandomVerticalFlip、AutoAugment和GridMask能有效提高模型性能。


不同于自然图像,对于垃圾图像,水平翻转和垂直翻转的效果是等同的,因此我们使用了RandomVerticalFlip而并非RandomHorizontalFlip。


并且我们将广泛使用于图像分类中的AutoAugment方法迁移到了目标检测中。实验证明,该方法对各种目标检测数据集都是有效的。并且我们在baseline中尝试了三种不同的自动增强策略(表2),发现AutoAugment v0的效果是最好的,最终我们也使用了它。


模型

策略

排行榜AP

Baseline

+RandomVFlip

v0

0.906

v1

0.902

v2

0.904

表2:不同AutoAugment策略下模型的AP


再者我们使用了GridMask的数据增强方法,该方法包括random erasing、hide-and-seek、Dropout以及DropBlock。实验表明,GridMask可以有效减少目标检测的过拟合。并且使用GridMask长时间训练模型可以显著提高模型性能。在本实验中,我们尝试了不同概率和训练时间下的GridMask。如表3所示,使用GridMask的训练模型需要比baseline更长的训练时间。使用0.3的概率足以减少过拟合,且训练时间越长越好。概率为0.5和0.7甚至会导欠拟合的现象。所以如果以较高的GridMask概率训练超过300K次迭代理论上来说可以进一步提高结果。



模型

概率

迭代次数

排行榜AP

Baseline

+RandomVFlip

+AutoAugment

0.3

160K

0.907

0.5

160K

0.906

0.7

160K

0.903

0.3

200K

0.909

0.5

200K

0.906

0.3

240K

0.911

0.5

300K

0.909

表3:不同GridMask概率与迭代次数下模型的AP


05模型融合


在最终提交阶段,我们只能在RTX 2080上测试两个小时,但是模型大小不受限制。所以考虑到这些约束条件,我们训练了仅随机种子不同的6个相同的模型来进行模型融合,且使用了前面提到的所有有效技巧。同时使用了Top-k voting nms对6个模型的检测结果进行合并,设置top-k voting的nms的IoU阈值为0.7,该阈值与Cascade R-CNN第三阶段的IoU阈值一致。


06总结


最终我们在测试集上以0.910的成绩取得了第一名,我们认为我们能够取胜的原因主要有以下几点:


(1)参考了大型目标检测比赛前几名的方案

(2)使用了COCO,Object365以及OIDV5的混合预训练模型

(3)使用了多种数据增强方法

(4)在模型融合中使用了top-k voting nms


最后感谢华为提供的NAIE平台,为比赛训练提供了巨大的帮助,平台功能也十分强大。在我们使用平台遇到问题时,官方都及时地进行了解答和协助,十分的给力。我们也非常荣幸能有这次机会和大家分享这次比赛的历程,谢谢!



【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。