谷歌最新提出无需卷积、注意力 ,纯MLP构成的视觉架构
发布日期:2021-05-07 16:55:25 浏览次数:12 分类:原创文章

本文共 637 字,大约阅读时间需要 2 分钟。

11年it研发经验,从一个会计转行为算法工程师,学过C#,c++,java,android,php,go,js,python,CNN神经网络,四千多篇博文,三千多篇原创,只为与你分享,共同成长,一起进步,关注我,给你分享更多干货知识!

谷歌最新提出无需卷积、注意力 ,纯MLP构成的视觉架构

论文链接:https://arxiv.org/pdf/2105.01601.pdf

代码链接:https://github.com/google-research/vision_transformer

香港科技大学李铎同学的pytorch版的复现:https://github.com/d-li14/mlp-mixer.pytorch

 

这是pytorch的代码,加上了测试脚本

model size 70.96 m

 

import torchimport torch.nn as nnclass MlpBlock(nn.Module):    def __init__(self, hidden_dim, mlp_dim):        super(MlpBlock, self).__init__()        self.mlp = nn.Sequential(            nn.Linear(hidden_dim, mlp_dim),            nn.GELU(),            nn.Linear(mlp_dim, hidden_dim)   
上一篇:python学习3. 无重复字符的最长子串(滑动窗口)
下一篇:mxnet METRIC自定义评估验证函数

发表评论

最新留言

表示我来过!
[***.240.166.169]2025年04月12日 01时50分02秒

关于作者

    喝酒易醉,品茶养心,人生如梦,品茶悟道,何以解忧?唯有杜康!
-- 愿君每日到此一游!

推荐文章