VanillaKD | 简单而强大, 对原始知识蒸馏方法的再审视

火山方舟向量数据库大模型

点击下方卡片,关注「集智书童」公众号

点击加入👉「集智书童」交流群

作者丨AIWalker 来源丨https://mp.weixin.qq.com/s/epEcTDPLBp1HK1hVkUR7FQ 编辑丨小书童

近年来,知识蒸馏(KD)的种种改进策略不断问世,包括如何利用中间层特征和样本间的流型结构等。然而,目前 大多数文章对知识蒸馏的测试仍停留在“较小数据集”和“较小模型”的水平 。通常的测试方法是在CIFAR-100数据集上进行240个epoch的训练,或在ImageNet数据集上进行90个epoch的训练。这些测试存在着数据集规模过小或训练策略过弱的缺陷, 无法准确评估知识蒸馏方法在复杂的实际应用场景中的性能

picture.image

华为诺亚的研究者们重新审视了近年来代表性的知识蒸馏方法,并从数据集大小、训练策略和模型参数量三个维度评估了它们对性能的影响 。研究发现:

  • 在大型数据集上,通过使用强训练策略进行充分训练后,原始知识蒸馏方法(vanilla KD)与现有最先进方法的性能相当。
  • 在小型数据集上,无论训练策略的强弱,原始知识蒸馏方法始终显著弱于精心设计过的方法。
  • 学生模型的参数量对评估结果没有显著影响。

基于这些观察,本研究仅使用vanilla KD方法,在ImageNet数据集上刷新了多个模型的精度记录 ,并发布了它们的模型参数:

  • ResNet50:83.08%
  • ViT-T:78.11%
  • ViT-S:84.33%
  • ConvNeXt v2-T:85.03%

知识蒸馏中的“小数据陷阱”

picture.image

论文作者选取DKD[1]和DIST[2]作为基准知识蒸馏方法,比较了数据集大小、训练策略和模型参数量对知识蒸馏方法评估结果的影响

picture.image

在ImageNet数据集上,使用更强的训练策略后,vanilla KD与SOTA方法之间的性能差距接近消失 .

picture.image

在CIFAR-100数据集上,即使增强训练策略也无法弥合vanilla KD与SOTA方法之间的性能差距 .

基于以上观察,论文作者提出了小数据陷阱 (small data pitfall)的概念,即仅依靠小规模数据集评估知识蒸馏方法会导致对性能的错误估计 。考虑到现实应用场景中需要处理的数据规模通常远大于CIFAR-100数据集,这种错误估计可能会导致选择错误的方法,从而影响压缩后的模型性能。

探究vanilla KD的潜力

为进一步发掘vanilla KD的性能极限,作者在更多模型和KD方法上进行实验。

  • 更大的学生模型

picture.image

上表展示了使用ResNet50作为学生模型,ResNet152和BEiTv2-L作为教师模型时的结果。即使在更大的模型上,vanilla KD方法仍旧展现出与当前领先方法相当的性能 。然而,基于Hint的中间层特征蒸馏方法的表现却不合人意。尽管该方法在计算资源方面消耗更多,但其表现明显弱于仅使用Logits的蒸馏方法。此外对比ResNet50和ResNet18作为学生模型得到的结论相似,表明了学生模型的参数量对评估结果没有显著影响

  • 更多的模型种类

picture.image

上表展示了更多教师模型与学生模型组合的结果。vanilla KD的表现优于DKD和DIST,说明前述结论并不局限于单一模型结构

  • 更长的训练轮数

picture.image

为了进一步探究vanilla KD的性能极限,论文作者使用ResNet50作为学生模型,BEiTv2-B作为教师模型,进一步增大了训练轮数设置。经过更加充分的训练后,作者们得到了ResNet50,ViT-T,ViT-S,和ConvNeXt v2-T模型在ImageNet上的新SOTA。

  • 与MIM相比

picture.image

Mask image modeling(MIM)作为近期火热的预训练方法,能够使微调后模型达到更高精度。论文作者使用ConvNeXt v2-T作为学生模型,BEiTv2-B作为教师模型,将vanilla KD与MIM进行了比较。上表中的结果表明在同样的计算资源消耗下,vanilla KD能够取得显著优于MIM的结果

  • 迁移到下游任务

picture.image

作者在COCO 2017 val上评估了使用vanilla KD蒸馏的backbone对性能的影响。如上表所示,学生模型在分类任务上得到的性能提升能够有效迁移到下游任务

结论

本文从数据集大小、训练策略和模型参数量三个维度重新审视了知识蒸馏方法的评估过程,发现原始的知识蒸馏方法受到源自小规模数据和不充分训练策略的低估 。在采用更强的数据增强和更大的数据集后,仅使用原始知识蒸馏方法训练的ResNet50,ViT-T,ViT-S,和ConvNeXt v2-T模型取得了新的SOTA性能,说明了原始的知识蒸馏方法尽管设计简单,却有实际应用的巨大潜力

参考文献

  • [1] Borui Zhao, Quan Cui, Renjie Song, Yiyu Qiu, and Jiajun Liang. Decoupled knowledge distillation. In IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2022
  • [2] Tao Huang, Shan You, Fei Wang, Chen Qian, and Chang Xu. Knowledge distillation from a stronger teacher. In Advances in Neural Information Processing Systems, 2022.

picture.image

[picture.image

Fast YOLO:用于实时嵌入式目标检测](https://mp.weixin.qq.com/s?__biz=MzU5OTA2Mjk5Mw==&mid=2247508750&idx=2&sn=50f187da4e60ed85fb69cb80b083df74&chksm=feb843b0c9cfcaa60ec75740bff497f123d3e3de005ad7c1d97c2ee407d75e415503617eb13a&scene=21#wechat_redirect)

[picture.image

ConvNeXt V2:适应自监督学习,让 CNN “再一次强大”?](https://mp.weixin.qq.com/s?__biz=MzU5OTA2Mjk5Mw==&mid=2247508692&idx=1&sn=fc645f86fd7c3c5b26f05f5694d9e6c2&chksm=feb8426ac9cfcb7ca754661787d7a35f91eb9d02df4242aa92dcc8a8a60bd3b580141ddf6df1&scene=21#wechat_redirect)

[picture.image

恶劣天气条件下激光雷达感知研究综述](https://mp.weixin.qq.com/s?__biz=MzU5OTA2Mjk5Mw==&mid=2247508673&idx=2&sn=7c15eb9fe8a99d8d8a310a34a9b66345&chksm=feb8427fc9cfcb69fb6a777ba25473a352687ee3679e2e08a00f475926c8e4ca1f17150eef06&scene=21#wechat_redirect)

扫码加入👉「集智书童」交流群

(备注: 方向+学校/公司+昵称 )

picture.image

picture.image

picture.image

picture.image

picture.image

picture.image

想要了解更多:

前沿AI视觉感知全栈知识👉「分类、检测、分割、关键点、车道线检测、3D视觉(分割、检测)、多模态、目标跟踪、NerF」

行业技术方案 👉「AI安防、AI医疗、AI自动驾驶」

AI模型部署落地实战 👉「CUDA、TensorRT、NCNN、OpenVINO、MNN、ONNXRuntime以及地平线框架」

欢迎扫描上方二维码,加入「 集智书童-知识星球 」,日常分享论文、学习笔记、问题解决方案、部署方案以及全栈式答疑,期待交流!

免责声明

凡本公众号注明“来源:XXX(非集智书童)”的作品,均转载自其它媒体,版权归原作者所有,如有侵权请联系我们删除,谢谢。

点击下方“ 阅读原文 ”,

了解更多AI学习路上的 「武功秘籍」

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
IDC 大模型应用落地白皮书
大模型技术已深度融入业务实践,各企业期望其释放更大商业价值。 但大模型落地之路面临许多挑战和顾虑。 如何精准对接业务需求与发展蓝图,制定切实可行的大模型落地策略? IDC发布首个大模型应用策略与行动指南 一为您揭晓一
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论