谷歌最新提出无需卷积、注意力 ,纯MLP构成的视觉架构

举报
风吹稻花香 发表于 2021/06/05 00:45:57 2021/06/05
【摘要】 11年it研发经验,从一个会计转行为算法工程师,学过C#,c++,java,android,php,go,js,python,CNN神经网络,四千多篇博文,三千多篇原创,只为与你分享,共同成长,一起进步,关注我,给你分享更多干货知识! 谷歌最新提出无需卷积、注意力 ,纯MLP构成的视觉架构 论文链接:https://arxiv.org/pdf/2105.01601.pdf...

11年it研发经验,从一个会计转行为算法工程师,学过C#,c++,java,android,php,go,js,python,CNN神经网络,四千多篇博文,三千多篇原创,只为与你分享,共同成长,一起进步,关注我,给你分享更多干货知识!

谷歌最新提出无需卷积、注意力 ,纯MLP构成的视觉架构

论文链接:https://arxiv.org/pdf/2105.01601.pdf

代码链接:https://github.com/google-research/vision_transformer

香港科技大学李铎同学的pytorch版的复现:https://github.com/d-li14/mlp-mixer.pytorch

 

这是pytorch的代码,加上了测试脚本

model size 70.96 m

 


  
  1. import torch
  2. import torch.nn as nn
  3. class MlpBlock(nn.Module):
  4. def __init__(self, hidden_dim, mlp_dim):
  5. super(MlpBlock, self).__init__()
  6. self.mlp = nn.Sequential(
  7. nn.Linear(hidden_dim, mlp_dim),
  8. nn.GELU(),
  9. nn.Linear(mlp_dim, hidden_dim)

文章来源: blog.csdn.net,作者:网奇,版权归原作者所有,如需转载,请联系作者。

原文链接:blog.csdn.net/jacke121/article/details/116465740

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。