模型评估中目标检测模型的背景误差分析以及相关的解决方法

举报
talking_cv 发表于 2020/08/12 19:47:51 2020/08/12
【摘要】 在目标检测的模型评估阶段,目标检测的假阳性(误检分析)以及假阴性(漏检分析)是比较重要的一环,本博客将介绍目标检测中出现的误检和漏检想象,并分析相关的解决方法

一、问题描述

       在目标检测的模型评估阶段,目标检测的假阳性(误检分析)以及假阴性(漏检分析)是比较重要的一环,在假阳性分析方面,背景误差主要表现在背景误检概率,在假阴性分析方面,背景误差主要表现在背景漏检概率,ModelArts中对应的模型评估结果展示为:


       上图展示的是对检测的推理结果进行的分析举例,其中图a表示的是假阳性(误检方面)的位置偏差,类别误检以及背景误检的分析,图b表示的是假阴性(漏检方面)的位置偏差,类别漏检以及背景漏检的分析,可以看出在误检以及漏检分析方面,背景误差占比比较大,那么有什么办法可以降低背景误差的概率,提升模型推理的准确度呢,下面对相关的算法和技术进行说明。

二、解决方法

       目标检测在实际的训练过程中还是一种多任务的task,在准确的识别类的同时,还需要对类别实例的位置进行精确的定位。模型训练的loss包括class loss以及bbox loss,而对于bbox loss来说,最常见的是Smooth L1 loss,具体计算如下所示:

        balanced loss最早是在Libra R-CNN中提出的,相比于传统的Smooth L1loss,balanced loss具有更加平滑的曲线和收敛特征,具体的计算公式以及求导公式如下所示:

        从下面的图可以看出,在inliers的边界位置,相比于Smooth L1 loss,balanced loss具有稍微大一些的梯度,越小,增加的幅度约明显,这样可以增加模型反向梯度的更新的时候识别正样本的概率。

(引用自Libra R-CNN

三、实验验证

        下面是在开源数据集Canine Coccidiosis Parasite上面使用balanced loss之前和之后在误检分析(假阳性)的对比情况,可以看出,使用balanced loss之后,背景误检得到比较大的改善。

       下面是在Canine Coccidiosis Parasite上面使用balanced loss之前和之后在漏检分析(假阴性)的对比情况,可以看出,使用balanced loss之后,背景漏检得到比较大的改善。

四、用户建议

       在模型推理结果中,如果背景误差占比比较大,推荐在训练的时候,使用balanced loss进行模型优化和加强。

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。