Lora过拟合,Flexora 起飞

大模型机器学习算法

论文笔记分享,标题:Flexora: Flexible Low Rank Adaptation for Large Language Models

Flexora主要是通过自动和灵活地选择最重要的层 进行微调(并非所有的层都插lora权重),以解决Lora方法可能遇到的过拟合问题,提升模型在特定下游任务上的性能.

合适的层数选择,稳定优于Lorapicture.image

picture.image

所以现在问题变成了如何自动,灵活的选择最重要的层呢?

大佬们提出了UD方法来解决这个HPO(超参优化问题),对比random选择,是明显更优的。picture.image

流程上,比正常的lora微调,多了层选择过程

picture.image

使用连续的超参数向量α,使得每个αi表示对应层的重要性。表达成双层优化问题,内层最小化训练集的误差,外层,选择超参最小化验证集的误差。优化完之后,选择α最大k个层,插lora微调即可。

picture.image

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
IDC 大模型应用落地白皮书
大模型技术已深度融入业务实践,各企业期望其释放更大商业价值。 但大模型落地之路面临许多挑战和顾虑。 如何精准对接业务需求与发展蓝图,制定切实可行的大模型落地策略? IDC发布首个大模型应用策略与行动指南 一为您揭晓一
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论