【CVPR2021之UP-DETR】 基于Transformers无监督预训练提升的目标检测 | 环境搭建 | 基础测试

举报
墨理学AI 发表于 2022/01/10 22:24:13 2022/01/10
【摘要】 【CVPR2021之 UP-DETR】 基于Transformers无监督预训练提升的目标检测 基本信息 摘要翻译 环境搭建 测试数据集+模...

【CVPR2021之 UP-DETR】 基于Transformers无监督预训练提升的目标检测


基本信息


UP-DETR: Unsupervised Pre-training for Object Detection with Transformers

基于with Transformers无监督预训练提升的目标检测

https://arxiv.org/pdf/2011.09094.pdf

https://github.com/dddzg/up-detr


摘要翻译


Abstract

使用 transformers (DETR) 的对象检测通过 a transformer encoder-decoder architecture 与 Faster R-CNN 达到竞争性能。受 pre-training transformers 在自然语言处理中取得的巨大成功的启发,我们提出了一个名为随机查询补丁检测的借口任务ÿ

文章来源: positive.blog.csdn.net,作者:墨理学AI,版权归原作者所有,如需转载,请联系作者。

原文链接:positive.blog.csdn.net/article/details/117552752

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。