清华开源LongCite,如何提高大模型的溯源能力?

大模型数据安全机器学习

论文笔记分享, 标题:LONGCITE: ENABLING LLMS TO GENERATE FINE GRAINED CITATIONS IN LONG-CONTEXT QA

溯源/引用,工业界应用老板们最喜欢加的一个东西。总的来说,这个文章也没啥。做了一个评测基准,开源了一个用于溯源sft的45k数据集,开源了2个模型,介绍了他们的数据生成pipeline。

主要看看数据生成的pipeline把,如下图:3步+1步过滤 (为啥不一步到位了,说是这样更干净,先出答案,在生成引用)

  • QA数据生成:LLM生成与给定长文本相关的查询和答案。
  • 块级引用生成:给chunk标上引用,结合问题,答案,生成带引用的chunk级别qa数据
  • 句子级引用提取:从每个chunk引用中提取出支持每个陈述的相关句子,生成细粒度引用。
  • 过滤,丢弃引用数量不足的样本。picture.image

数据比例,中文占比比较多。 可以比较好的利用私有场景~picture.image

整体就是效果更好picture.image

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
火山引擎大规模机器学习平台架构设计与应用实践
围绕数据加速、模型分布式训练框架建设、大规模异构集群调度、模型开发过程标准化等AI工程化实践,全面分享如何以开发者的极致体验为核心,进行机器学习平台的设计与实现。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论