即插即用! | 苹果推出新型网络架构 FastViT: 又快又强又稳,端侧一键部署毫无压力!

火山方舟向量数据库大模型

picture.image

Title : FastViT: A Fast Hybrid Vision Transformer using Structural Reparameterization

Paper : https://arxiv.org/pdf/2303.14189.pdf

导读

本文介绍了一种新颖的混合视觉架构—— FastViT,其有机的结合了 CNNsTransformer,无论在精度或者运行效率上均有了稳定的提升。 FastViT的主要贡献是引入了一种新的 Token混合算子,命名为叫做 RepMixer,听名字就知道结合结构重新参数化技术啦。该算子的作用原理是通过消除网络中的 skip connection来降低 内存访问成本 。与此同时,本文还采用了 traintime overparametrization和大内核卷积等技术来提高精度。

实验结果表明, FastViT

  • 在移动设备上的速度比最近的混合 Transformer架构 CMT3.5 倍!
  • ImageNet数据集上的精度相同,但速度比 EfficientNet4.9 倍且比 ConvNeXt1.9 倍!
  • 在相似的延迟下, FastViTImageNet上的Top-1 精度比 MobileOne高出4.2%

就问你服不服?总而言之, FastViT在多个任务(图像分类、检测、分割甚至是 3D 网格回归)上的表现均优于竞争对手,特别是在移动设备和桌面GPU上都有显着的延迟改进。此外, FastViT模型能够较好的适应域外和破损数据,相较于其它 SOTA架构具备很强的鲁棒性和泛化性能。说得我都想赶紧替换上去了,真香!

方法

picture.image

上图为 FastViT的整体框架图,如上所述,这是一种混合 Transformer模型,其架构是基于 CVPR'2022 Oral上的一篇工作 PoolFormer改进的:

picture.image

PoolFormer is instantiated from MetaFormer by specifying the token mixer as extremely simple operator, pooling. PoolFormer is utilized as a tool to verify MetaFormer hypothesis "MetaFormer is actually what you need" (vs "Attention is all you need").

时间宝贵,我们参照上面示意图快速过一下。

上述框架图中最左侧的部分是整体的模块示意图,共包含一个 Stem层和四个 Stage,分别作用在不同的尺度上,最后是接入一个 的深度可分离 MobileOne块和一个平均池化层直接套个全连接输出最终的分类结果。

首先,从上往下观察, Stem部分在右上角那里,同其余 Stage内的模块一样,都是套用了结构参数化技术,常规套路,用于推理时融合算子加速用的。其次,可以看到,针对每个 Stage的不同特性,这里采用不同的结构去捕获不同层级的特征。具体的,看下图(a)先,这里主要引入了

可以看到,针对每个 Stage的不同特性,这里采用不同的结构去捕获不同层级的特征,但整体范式上还是套用了结构参数化技术,常规套路。先看下图(a)部分,此处主要采用了分解机制。图(c)部分眼熟的小伙伴一眼就闻到了 ConvNeXt的味道,(⊙o⊙)…。重点可能是放在图(d),也就是本文反复强调的 RepMixer,跟 MetaFormer一样,也是一种 Token混合算子,主要功效是对跳跃连接进行重参数化改造,有助于减轻内存访问成本。

类似于 ConvNeXtFastViT也是由里而外逐步做实验去优化的,具体的改进方案如下所示:

picture.image

下表给出它的不同配置:

picture.image

为了验证重参数化跳跃连接的好处,作者对 MetaFormer架构中最高效的 Token混合算子之一,即 PoolingRepMixer进行了相关实验:

picture.image

其中,两个压缩过的模型都具有约 1.8G FLOPs。实验环境是在 iPhone 12 Pro移动设备上对各种输入分辨率的模型进行时间测量,分辨率从 224×2241024×1024逐步缩放。从图中可以看出, RepMixer显著优于 Pooling算子,尤其是在更高的分辨率下。观察下 384×384这里,使用 RepMixer可以使延迟降低 25.1 %,而在更大的分辨率例如 1024×1024下,延迟直接降低至 43.9 %,Cool!

为了进一步提高效率(参数数量、FLOPs 和延迟),本文设计了一种分解版本替换了所有的密集卷积(如)。但是,参数量低了性能肯定会受影响啦。所以,为了增加拟合能力,作者执行线性训练时超参数化,具体可参考 MobileOne论文。

此外,在卷积的初始阶段、 Patch Embedding和投影层中进行 MobileOne风格的超参数化有助于提高性能,如下表所示:

picture.image

可以看出,训练时超参数化可以使 FastViT-SA12模型在 ImageNet上的 Top1精度直接提高 0.6 %。哪怕是在较小的 FastViT-S12变体中, Top-1 精度也能提高 0.9%

然而,训练时超参数化会导致由于添加分支所带来的计算开销而 增加训练时间 (多分支并行的通病)。因此,为了解决此问题,在该架构中,我们只对那些分解层进行超参数化,这些层位于卷积初始阶段、 Patch Embedding和投影层中。这些层的计算成本比网络的其余部分要低,因此超参数化这些层不会显著增加训练时间。例如, FastViT-SA12使用训练时超参数化的训练时间比在相同设置下不使用超参数化的训练时间长 6.7 %, FastViT-SA36也仅为 4.4 %。

最后,便是大卷积核的魔力了,笔者先前讲了挺多的,有兴趣的自行去翻阅『CVHub』历史文章:

picture.image

总的来说,随着感受野的增加,大核卷积有助于提高模型的鲁棒性。因此,结合大核卷积是提高模型性能和鲁棒性的有效方法。

效果

picture.image

picture.image

不说了,一句话概括就是又快又强!值得一提的是,作者还将其扩展到 3D 手部网格估计:

picture.image

这是最终的效果图,看来还是苹果香啊!哈哈哈~~~

picture.image

总结

本文提出了一种通用的混合视觉转换器,它在多种计算结构上非常高效,包括移动设备和桌面级 GPU。通过结构重参数化,所提模型 FastViT显著降低了内存访问成本,尤其是在高分辨率下提速明显。此外,通过进一步的架构优化,最终提高了 ImageNet 分类任务和其他下游任务(如目标检测、语义分割和 3D 手部网格估计)的性能,同时对域外数据和损失数据具备很强的泛化性和鲁棒性!

0
0
0
0
关于作者
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论