左脚踩右脚:大模型的有趣且简单的微调方式“SHADOW-FT”

大模型机器学习算法

大语言模型的微调主要分为两类:全参数微调和参数高效微调(lora等)。直接对 Instruct 模型进行调优通常仅带来微小的提升,甚至导致性能退化。Base 模型与Instruct 模型权重值高度相似。Base 模型往往是一个良好的学习器,但在后训练前较弱。因此,通过利用对应的Base 模型来调优 Instruct 模型。核心思想是先微调 Base 模型,然后将学成的权重更新 直接赋予 Instruct 模型。正就是Shadow-FT 理念,不引入额外参数,实现简单。

picture.image

BASE与INSTRUCT模型的权重相似性分析

相对差距比

**来量化权重相似度,公式为:

其中

为元素级求和,

为绝对值运算。

取值范围为0-1,

代表两个模型权重完全一致,

代表权重差异极大。

picture.image

Llama-3.1-8B 的权重分布。我们可视化了相同线性层(layer.0.k_proj)在 Base 模型(左)、Instruct 模型(中)及其差异(右)中的情况。尽管在 z 轴方向放大了 10 倍,但差异几乎可以忽略不计,平均 σ 值为 0.016。

如上图,配对的BASE和INSTRUCT模型权重相似度极高,说明BASE和INSTRUCT模型的权重结构高度重合,因此得出结论,通过BASE模型辅助INSTRUCT模型微调可行。

方法

picture.image

Shadow-FT框架

Shadow-FT的核心逻辑是:利用BASE和INSTRUCT模型的权重相似性,先对BASE模型进行微调以获取优质的参数更新量,再将该更新量直接迁移到INSTRUCT模型上,从而避免直接微调INSTRUCT模型带来的性能退化问题。流程如下,比较简单:

  1. 微调BASE模型 :首先采用任意微调方法(全参数或LoRA)对BASE模型进行训练,得到更新后的BASE模型权重

,公式为:

其中

代表微调操作,

为BASE模型原始权重。

  1. 迁移参数更新量到INSTRUCT模型 :计算BASE模型的参数更新量

,并将其直接叠加到INSTRUCT模型的原始权重

上,得到最终的INSTRUCT模型权重

,公式为:

传统INSTRUCT模型微调的公式为:

对比可知,Shadow-FT与传统微调的训练成本完全一致 ,唯一区别在于:传统方法从INSTRUCT模型自身学习参数更新量,而Shadow-FT从BASE模型学习更新量再迁移。

实验性能

picture.image

picture.image

picture.image

picture.image

参考文献:SHADOW-FT: TUNING INSTRUCT MODEL VIA TRAINING ON PAIRED BASE MODEL,https://arxiv.org/pdf/2505.12716v3

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
TRAE 的思考:AI 时代程序员的认知进化
在 AI 浪潮下,传统的古法编程模式正在被颠覆和变革,对开发者的认知和协作模式提出了新的挑战。本次分享将深入探讨 AI Coding 的演进趋势,从 AI 辅助编程到 AI 主导的全新协作模式,以及它如何重塑人与 AI 之间的关系,同时也将分享下 TRAE 的核心理念、技术实现,演进实践中的踩坑心得、以及我们对未来的展望。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论