LP-DETR突破DETR瓶颈 | 多尺度自适应注意力实现58%AP新高,揭示检测注意力演进规律

向量数据库大模型机器学习

点击下方卡片,关注「集智书童」公众号

点击加入👉「集智书童」交流群

picture.image

picture.image

picture.image

picture.image

picture.image

picture.image

导读

本文提出了LP-DETR(层状渐进式DETR),这是一种通过多尺度关系建模增强基于DETR的目标检测的新方法。LP-DETR通过关系感知的自注意力机制引入了可学习的目标 Query 之间的空间关系,该机制能够自适应地学习平衡解码器层之间不同尺度的关系(局部、中度和全局)。这种渐进式设计使得模型能够有效地捕捉检测 Pipeline 中不断变化的空间依赖关系。

在COCO 2017数据集上的大量实验表明,与标准自注意力模块相比,LP-DETR提高了收敛速度和检测精度。所LP-DETR取得了具有竞争力的结果,使用ResNet-50主干网络在12个epoch时达到52.3%的AP,在24个epoch时达到52.5%的AP,并进一步使用Swin-L主干网络提高至58.0%的AP。此外,作者的分析揭示了一个有趣的模式:模型自然地学会了在早期解码器层优先考虑局部空间关系,同时在更深层次的解码器层逐渐将注意力转移到更广泛的上下文中,为未来目标检测研究提供了宝贵的见解。

  1. 引言

DEtection Transformers (DETRs) [1] 通过提出一种端到端的目标检测架构取得了巨大进展。然而,其低效的训练效果仍然是一个关键挑战。根本原因在于训练过程中的监督不平衡——DETR采用匈牙利算法为每个真实框分配一个正预测,将大多数预测作为负样本。这种不足的正监督导致收敛速度慢且不稳定。虽然已经提出了各种方法通过不同的技术途径来解决这一问题,如多尺度特征学习 [2]、去噪训练 [3]、[4]、混合匹配策略 [5]、[6] 和损失对齐 [7]、[8],但它们主要关注局部特征增强或 Query 学习优化,而没有充分探索自注意力中的关系建模潜力。

在视觉领域,建模物体间关系已被证明对检测性能有益。先前的方法主要集中在两个方面:物体类别的共现模式[9]-[12]以及使用各种标准的空间关系[13]-[15]。这些方法已经证明,通过捕捉物体之间的上下文依赖关系,引入关系信息可以有效提高检测精度。然而,在DETR领域,很少有工作研究自注意力中物体 Query 的可学习关系,这是DETR解码器中的一个关键组件。Hao等人[12]试图通过解码器自注意力中的可学习关系矩阵来建模类别相关性,但他们的方法没有考虑空间信息,并且需要将类别到类别的关联映射回 Query 到 Query 的交互。最近,Relation-DETR[16]通过跨层细化引入了边界框之间的显式位置关系。受他们的工作启发,但与这些方法不同,作者直接将几何关系权重纳入每一层的 Query 中,并提出了层特定的关系建模来捕捉不断变化的空间依赖关系。

本文提出了LP-DETR(层状渐进式DETR),通过显式建模解码器层之间的多尺度空间关系来增强目标检测。作者的关键洞察是,物体关系自然地从局部到全局上下文中演变,检测 Pipeline 中的不同尺度的空间关系可能在检测过程的各个阶段扮演不同的角色。基于这一观察,作者提出了一种渐进式关系感知自注意力模块,该模块能够自适应地学习在不同解码器层平衡不同尺度的空间关系。这种设计使得模型能够在早期层捕获细粒度的局部关系,同时在深层逐渐融入更广泛的关系信息。

作者工作的主要贡献有三方面:

  • • 作者引入了一种关系感知的自注意力机制,该机制显式地建模了目标 Query 之间的多尺度空间关系。
  • • 作者提出了一种渐进式细化策略,允许模型自适应地调整解码器层之间的关系权重。
  • • 作者发现并验证了一个有趣的模式,即空间关系通过解码器层自然地从局部进展到全局上下文,为未来的研究提供了有价值的见解。

最后,作者在COCO 2017数据集上进行了广泛的实验,以验证LP-DETR的有效性。LPDETR在12个epoch的训练下,使用ResNet-50作为 Backbone 网络,实现了52.3%的AP;在24个epoch的训练下,AP达到了52.5%。使用Swin-L作为 Backbone 网络时,LP-DETR进一步提升了至58.0%的AP。更重要的是,作者的分析揭示,所提出的渐进式关系建模有助于提高收敛性和检测精度。这些结果验证了作者对层状关系建模重要性的假设,并为未来在目标检测领域的研究指明了有希望的路径。

  1. 研究方法

A. DETR 前言

一种DETR风格的检测器由 Backbone 网络(例如,ResNet [24]、Swin Transformer [25])和具有编码器和解码器模块的transformer架构组成。给定一个输入图像, Backbone 网络首先提取图像特征,然后将这些特征分割成块状 Token 。transformer编码器通过自注意力机制处理这些 Token ,并输出增强的特征表示,记为记忆 。transformer解码器以一组可学习的目标 Query 作为输入。近期的工作 [4]、[19] 提出将这些 Query 解耦为内容 Query 用于标签嵌入和位置 Query 用于边界框预测,从而实现更好的关系对齐。解码器由 个堆叠的块组成,其中每个块包含三个连续的组件:一个自注意力层、一个交叉注意力层和一个 FFN (FFN)。

自注意力层使目标 Query 之间能够进行通信,允许每个 Query 通过考虑其他 Query 的预测来细化其预测。交叉注意力层促进了目标 Query 和编码记忆 之间的交互,聚合特征以进行目标定位和分类。最后,FFN 通过并行分类和回归 Head 将 Query 嵌入转换为预测。

B. 层次渐进式关系感知注意力

picture.image

图1展示了作者提出的渐进式关系感知DETR模型的High-Level架构。LP-DETR应用于解码器组件中的自注意力机制。考虑目标 Query ,它由内容嵌入 Query 、参考框位置 Query (表示为)和关系 Query 组成。给定一组个目标 Query ,相对于所有目标 Query 的第个关系 Query 可以计算为所有 Query 的加权求和:

关系权重 捕获了 Query 之间的几何和内容注意力关系,其计算公式如下:

和 分别是自注意力中 Query 、 Key和Value 的可学习投影矩阵, 表示 的嵌入大小。注意力分数 通过几何权重 进行归一化,以获得最终的关联权重 w。

几何权重 通过以下方式融入空间关系:

其中,关系度量 捕获距离、尺度以及 gIoU 中的空间变换。嵌入函数 使用正弦编码 [15] 将这些 5 维特征映射到高维空间,随后通过实现为具有 ReLU 激活的 MLP 的可学习投影 。然后,整体目标 Query 整合来自多个注意力头的信

表示关系感知注意力头的数量。Concat算子聚合关系 Query ,MLP通过可学习的 Query 到 Query 的关系权重增强目标 Query ,使它们在训练过程中对空间关系更加敏感。关系感知自注意力模块的详细信息如图2所示。

picture.image

为了探究不同尺度的关系在解码器层中的演变,作者提出了三种关系度量指标:

局部、中观和全局关系。局部关系 使用方程 5 中的原始度量,强调相对距离和尺度变化。中观关系 应用缩放因子 ,其中 是第 层解码器层,以减少对数函数的陡峭程度。全局关系 使用常数权重 1.0。因此,第 层解码器层的几何权重表述如下:

表示可学习的权重,这些权重能够自适应地调整解码器层中不同关系尺度的权重。

  1. 实验

A. 实验设置

数据集和 Backbone 网络:作者在COCO 2017 [26]数据集上评估了作者的渐进式关系感知DETR,该数据集包含118k个训练图像和5kΩ个验证图像,涵盖了80个物体类别。

性能评估使用标准的COCO指标:在不同IoU阈值、0.75、0.5:0.95和尺度(小、中、大)下的平均精度(AP)。作者使用两个 Backbone 网络实现LP-DETR:在ImageNet1k上预训练的ResNet50 [24]和在ImageNet-22k [27]上预训练的Swin-Large [25]。两个 Backbone 网络均以初始学习率进行微调,在后期阶段学习率以0.1的因子降低。

实现细节:所有实验均在NVIDIA RTX 3090 GPU上使用AdamW优化器 [28]进行,权重衰减为,总批大小为16。对于关系嵌入模块,作者在正弦编码中设置温度、缩放和位置嵌入维度。位置关系在三个尺度(局部、中、全局)上构建,所有6个解码层中初始权重均为0.33。遵循基于DETR的方法中的标准实践,作者在训练过程中应用了常见的数据增强,包括随机调整大小、裁剪和翻转。作者报告了在1x(12个epoch)和(24个epoch)训练计划下的结果。

B.实验结果

作者在COCO 2017验证数据集上使用ResNet-50 [24]和Swin-L [25]作为 Backbone 网络评估LP-DETR。

picture.image

结果总结在表1和表2中。使用ResNet50 Backbone 网络进行12个epoch的训练,LP-DETR实现了具有竞争力的结果,AP达到52.3%,AP50达到69.6%,AP75达到56.8%。与Relation-DETR [16]相比,作者在所有指标上观察到一致的改进(AP提高0.6%,AP50提高0.5%,AP75提高0.5%)。

对不同尺度的物体进行分析表明,LP-DETR在S小物体上实现AP35.8%,M中物体上实现AP55.9%,L大物体上实现AP66.6%,在中等物体(APM提高0.3%)和大物体(APL提高0.5%)上取得了显著提升,同时在小物体上保持了具有竞争力的性能(APS降低0.3%)。这些改进在24个epoch的训练中更为明显,LP-DETR进一步超越了Relation-DETR,AP提高0.4%,AP50提高0.3%,AP75提高0.6%。此外,LP-DETR在更大 Backbone 网络上表现出强大的可扩展性。在12个epoch的训练下,使用Swin-L Backbone 网络,作者实现了58.0%的AP,76.4%的AP50和63.2%的AP75,在AP、AP50和AP75上均优于Relation-DETR的前期最佳结果,分别提高了0.2%,0.3%和0.3%。

C. 消融研究

关系头数量分析。作者研究了关系头数量如何影响作者的关系感知自注意力模块的模型性能。表1000l展示了在保持总共有8个注意力头的情况下,不同关系头数量的结果。不使用关系头(0头)作为作者的 Baseline ,其中该模块作为标准自注意力模块运行,实现了51.1%的AP、68.6%的AP50和55.8%的AP75。随着关系头数量的增加,性能持续提升。当所有8个头都用于关系感知注意力时,LP-DETR达到了最佳性能,AP为52.3%,相较于 Baseline 提升了1.2%的AP。在AP50(+1.0%)和AP75(+1.0%)上也观察到了相当的增长。这些结果证明了在自注意力机制中引入关系感知注意力的好处。

不同模块的分析。作者评估了渐进式细化(PR)与作者的关系感知自注意力模块结合使用时的有效性。如表4所示,仅关系感知自注意力模块相较于 Baseline ,将检测性能提升了0.9% AP、0.6% 和0.7% 。添加渐进式细化后,又额外提升了0.3% AP、0.4% 和0.3% 。这些改进在不同物体尺度上也是一致的。

picture.image

D. 逐步细化分析

为了理解不同尺度的位置关系(局部、中等和全局)如何通过解码器层演变,作者在图3中可视化了层间学习到的关系权重。作者的分析揭示了一个有趣的模式,即模型在平衡不同空间关系方面的做法。在第一层,三个尺度的权重保持相对相似,这表明在关系尺度选择上存在初始的不确定性。从第二层开始,模型对局部关系产生了强烈的偏好,权重超过0.9,表明早期的解码器层主要关注建立 Query 之间的局部关系。随着向更深层的过渡,作者观察到注意力分布的逐渐转变:局部关系权重降至0.24,而中等和全局关系权重稳步上升到约0.4。到最后一层,中等和全局关系的权重超过了局部关系。这种从局部到更广泛空间背景的渐进过渡与直观理解相符,即目标检测需要层次化处理——从局部到全局 Query 交互。这些发现为未来关系建模的研究提供了有希望的思路,因为从局部到全局关系的清晰层间进展表明,可能存在更有效的架构,这些架构明确利用了这种层次模式。

picture.image

E. 收敛性比较

图4绘制了不同最先进方法与ResNet-50主干网络结合下的收敛曲线。LP-DETR展现出改进的收敛行为,这得益于目标 Query 之间学习到的层依赖的多尺度空间关系。尽管相对于Relation-DETR的绝对AP提升适中(+0.6% AP),LP-DETR在整个训练过程中始终优于 Baseline (DINO和Deformable-DETR)。这证明了引入层依赖的多尺度空间关系可以有效优化原始的关系建模,用于目标检测。

picture.image

  1. 结论

本文提出了一种渐进式关系感知自注意力模块,通过引入可学习的多尺度空间关系来增强DETR检测器。LP-DETR能够自适应地调整不同尺度和解码层之间的关系权重,在标准基准测试中实现了有竞争力的性能。通过大量实验,作者证明了与标准自注意力相比,作者的模块提高了收敛速度和检测精度。作者的分析揭示了空间关系在网络中演变的模式:在早期解码层中,局部关系占主导地位,而在更深层的解码层中,全局关系变得越来越重要。作者的发现为未来的研究开辟了几个有前景的方向。

参考

[1]. LP-DETR: Layer-wise Progressive Relations for Object Detection

picture.image

扫码加入👉「集智书童」交流群

(备注: 方向+学校/公司+昵称 )

picture.image

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
字节跳动 XR 技术的探索与实践
火山引擎开发者社区技术大讲堂第二期邀请到了火山引擎 XR 技术负责人和火山引擎创作 CV 技术负责人,为大家分享字节跳动积累的前沿视觉技术及内外部的应用实践,揭秘现代炫酷的视觉效果背后的技术实现。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论