MATEval:一个用于推进开放式文本评估的Multi-Agent讨论框架

小程序云存储跨地域网络

随着生成性大型语言模型(LLMs)的快速发展,评估这些模型生成的文本质量,尤其是在开放式文本生成方面,一直是一个挑战。传统的手动评估方法耗时且成本高昂, 而自动化评估方法如BLEU、Rouge和METEOR在开放式文本评估中存在局限性 。最近的研究开始探索使用LLMs作为评估智能体,但这种方法存在不确定性和不稳定性。

为了解决这些问题,提出了 MATEval 框架,一个多智能体文本评估框架,旨在模拟人类协作讨论方法,通过多个智能体的交互来评估文本。

Multi-Agent文本评估框架

picture.image

MATEval框架包括 评估智能体反馈智能体**** 和 总结智能体**** ,它们协同工作完成文本评估任务。

MATEval框架示例: 包括提示和对话,融合了自我反思、思维链(CoT)、反馈机制和最终总结的讨论过程。

picture.image

MATEval框架关键组成部分:

  1. 评估智能体(Evaluator Agent):这是框架中的主要评估实体,负责进行多轮的文本评估。评估智能体通过设计好的提示(prompts)引导,存储和处理来自其他智能体的陈述,并以此为参考进行对话历史记录。

  2. 反馈智能体(Feedback Agent):反馈智能体在每轮讨论后评估讨论的内容和质量,专注于识别低效的对话和分歧,并提出改进建议,以提高后续讨论的效率和共识。

  3. 总结智能体(Summarizer Agent):在所有讨论结束后,总结智能体负责整理整个讨论过程和结果,提供详细的评估报告,包括错误类型、具体位置、解释和得分。

  4. 自我反思(Self-reflection):在每轮讨论中,智能体会进行自我反思,考虑同伴的输入来丰富对问题的理解,并调整自己的陈述。

  5. 思维链(Chain-of-Thought, CoT)策略:通过提示引导智能体自主分解问题,并在每轮讨论中只关注一个子问题,从而深入分析文本。

  6. 反馈机制:在每轮讨论结束时,反馈机制通过提示引导反馈智能体总结和评估讨论,指导后续讨论减少重复,提高效率,并引导参与者达成共识。

  7. 输出格式:MATEval框架提供两种格式的评估报告:一种是基于问答(Q&A)的格式,便于计算相似度和相关性分数;另一种是文本报告格式,便于业务人员快速理解和迭代模型。

MATEval框架在两个英文故事文本数据集(ROCStories和WritingPrompts)和两个中文故事文本数据集(LOT和Ant)上进行了实验。实验结果显示, MATEval在评估LLMs生成的文本方面优于现有的开放式文本评估方法,并且与人类评估具有最高的相关性 。特别是,结合自我反思和CoT策略的方法在评估逻辑不一致性、不连贯性和不当词汇选择方面表现尤为出色。

使用 不同模型和MATEval不同策略在ROC/WP数据集 上评估结果与人类判断的相关性,其中SA代表单智能体,SR表示自我反思,CoT代表思维链。符号ρ/τ分别表示斯皮尔曼/肯德尔相关性。最高相关性值以粗体突出显示。

picture.image

使用不同模型和 MATEval不同策略在LOT/Ant数据集上 评估结果与人类判断的相关性。最高相关性值以粗体显示。

picture.image


          
MATEval: A Multi-Agent Discussion Framework for Advancing Open-Ended Text Evaluation
          
https://arxiv.org/pdf/2403.19305.pdf
      

推荐阅读


欢迎关注我的公众号“ PaperAgent ”, 每天一篇大模型(LLM)文章来锻炼我们的思维,简单的例子,不简单的方法,提升自己。

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
火山引擎大规模机器学习平台架构设计与应用实践
围绕数据加速、模型分布式训练框架建设、大规模异构集群调度、模型开发过程标准化等AI工程化实践,全面分享如何以开发者的极致体验为核心,进行机器学习平台的设计与实现。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论