超越Vision Mamba!183篇注意力创新论文解锁线性-FFT-多维注意力组合密码

机器学习算法人工智能与算法

注意力机制因为其核心地位和持续出现的性能瓶颈,如今还在不断提供新的创新机会。也正因如此,当前的创新主要集中在让注意力机制更高效、更强大,或者更“聪明”。

简单总结下来有四大类:结构设计与尺度、特征处理与融合、模型架构与组合、特定任务或领域。鉴于这方向对创新的质量要求也越来越高,推荐想发论文的同学了解前沿后再下手。

本文根据以上分类整理了183篇注意力机制前沿论文,帮大家省去了查找资料的时间。其中包含注意力机制“魔改”等热点,且附有代码,篇幅有限就不一一展示了,大家可自取完整合集。

picture.image

扫码添加小享, 回复“ 注意力思路

免费获取全部论文+开源代码

picture.image

基于结构设计与尺度的创新

发文前景高。直接修改注意力计算的核心结构或其在序列/空间上的作用范围,是解决注意力机制计算复杂度和感受野问题的核心。

Demystify Mamba in Vision: A Linear Attention Perspective

方法: 论文提出了一种新的基于线性注意力的模型MILA。它将Mamba模型与线性注意力Transformer结合,创新性地引入遗忘门控和特殊的块设计,提升了模型性能,同时保持了并行计算和快速推理的优势。

picture.image

创新点:

  • 提出MILA模型,融合Mamba与线性注意力Transformer,引入遗忘门控和块设计,提升性能。
  • 保持线性注意力的并行计算特性,避免递归计算,实现更快推理速度。
  • 在图像分类和高分辨率密集预测任务中,MILA模型性能超越多种视觉Mamba模型。

picture.image

基于特征处理与融合方式的创新

不改变注意力基本结构,专注于如何准备输入特征以及如何整合注意力输出的特征,显著提升模型表达能力和稳定性。

Attention Retractable Frequency Fusion Transformer for Image Super Resolution

方法: 论文提出ARFFT模型,用快速傅里叶变换(FFT)扩展Transformer感受野,结合注意力机制提升图像超分辨率效果,并采用渐进式训练策略优化性能,显著优于现有方法。

picture.image

创新点:

  • 提出基于快速傅里叶变换的空间 - 频率融合块,扩大Transformer感受野。
  • 结合密集注意力模块和稀疏注意力模块,增强模型对全局信息的捕捉能力。
  • 采用渐进式训练策略,逐步提升模型性能,优化超分辨率结果。

picture.image

扫码添加小享, 回复“ 注意力思路

免费获取全部论文+开源代码

picture.image

基于模型架构与组合的创新

容易出成果的方向之一。将注意力机制作为核心组件,与其他类型的神经网络架构进行组合和集成,构建更强大的混合模型。

Speech Emotion Recognition Via CNN-Transformer and Multidimensional Attention Mechanism

方法: 论文提出了一种语音情感识别方法,结合了CNN提取局部特征、Transformer捕捉全局信息以及多维注意力机制(包括时间、空间和通道注意力)来增强特征表示,从而提升识别性能。

picture.image

创新点:

  • 提出CNN-Transformer架构,CNN提取局部特征,Transformer获取全局信息,提升识别效果。
  • 引入时间-空间-通道多维注意力机制,强化特征表达,精准捕捉语音情感。
  • 设计轻量级卷积Transformer模块,降低参数量,提高模型性能和效率。

picture.image

面向特定任务或领域的创新

发论文的蓝海。针对某个特定领域(如医疗、金融)或特定任务(如目标检测、图像生成)的独特挑战,对注意力机制进行定制化改造。

Spatio-temporal epidemic forecasting using mobility data with LSTM networks and attention mechanism

方法: 论文提出一种结合LSTM和注意力机制的深度学习模型,用于预测传染病趋势。模型利用时序数据和移动性数据,通过LSTM捕捉时间依赖性,注意力机制增强对时空动态的捕捉,从而提升预测准确性。

picture.image

创新点:

  • 提出一种深度学习模型,结合LSTM和注意力机制,用于传染病短期预测。
  • 模型整合移动性数据,增强对时空动态的捕捉,提升长期预测准确性。
  • 通过多指标评估模型性能,证明其在不同地区和时间段的预测优势。

picture.image

扫码添加小享, 回复“ 注意力思路

免费获取全部论文+开源代码

picture.image

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
大规模高性能计算集群优化实践
随着机器学习的发展,数据量和训练模型都有越来越大的趋势,这对基础设施有了更高的要求,包括硬件、网络架构等。本次分享主要介绍火山引擎支撑大规模高性能计算集群的架构和优化实践。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论