pytorch attention
【摘要】
预测一张:255*255 40ms
1.注意力机制需要维度相同,效果是把第二维变成1,比如(3,255,4,4)变成(3,1,4,4)
2.基础网络需要17ms,金字塔网络、注意力机制 需要8ms,候选框 需要16ms
https://github.com/rainofmine/Face_Attention_Network
感觉这个是打...
预测一张:255*255 40ms
1.注意力机制需要维度相同,效果是把第二维变成1,比如(3,255,4,4)变成(3,1,4,4)
2.基础网络需要17ms,金字塔网络、注意力机制 需要8ms,候选框 需要16ms
https://github.com/rainofmine/Face_Attention_Network
感觉这个是打印注意力特征
# i = 1 # for level in attention: # i += 1 # level = level.squeeze(0) # level = np.array(255 * unnormalize(level)).copy() # level = np.transpose(level, (1, 2, 0)) # plt.imsave(os.path.join('./output', str(i) + '.jpg'), level[:,:,0])
文章来源: blog.csdn.net,作者:网奇,版权归原作者所有,如需转载,请联系作者。
原文链接:blog.csdn.net/jacke121/article/details/85422089
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)