斯坦福大学:VideoAgent基于大语言模型的视频QA系统

云存储计算弹性计算

Agent 视频理解 计算机视觉

摘要

面对长视频理解这一计算机视觉领域的重大难题,我们模仿人类对此类信息的认知方式,重点关注跨模态、长时序的交互式推理与规划能力。为此,我们创新提出了一种名为VideoAgent的智能代理系统,其核心是一个大型语言模型,能循环识别并汇总关键信息以解答问题;同时,利用视觉-语言基础模型作为辅助工具,实现视觉信息的翻译与检索。经过在颇具挑战性的EgoSchema和NExT-QA基准上的严格评估,VideoAgent仅凭借平均每段视频片段8.4帧和8.2帧的数据,就取得了54.1%和71.3%的出色零样本准确率。这些成绩不仅体现了我们方法相较于现有最先进方法的高效与精准优势,也有力彰显了基于代理的方法在推动长视频理解深入发展方面的巨大潜力。

架构

picture.image

上图是VideoAgent的概览图,VideoAgent通过搜索、聚合视频信息来完成长视频QA。整个系统包括一个核心LLM、VLM(视觉大语言模型)和CLIP工具。

作者受到人类理解长视频的启发,提出了VideoAgent,通过基于Agent的系统来模拟这一过程的系统。

将视频理解过程形式化为一系列状态、动作和观察,其中LLM作为代理控制这个过程。首先,LLM通过浏览从视频中均匀抽样的一组帧来熟悉视频内容的背景。在每次迭代中,LLM评估当前信息(状态)是否足以回答问题;如果不够,它会确定需要什么额外的信息(动作)。随后,它利用CLIP 来检索包含这些信息的新帧(观察),并使用VLM将这些新帧描述为文本描述,从而更新当前状态。这种设计强调了推理能力和迭代过程,而不是直接处理长视觉输入,其中VLM和CLIP作为工具,使LLM能够具有视觉理解和长上下文检索能力。

picture.image

VideoAgent的迭代过程详细视图。每一轮都从状态开始,其中包括先前查看过的视频帧。然后,大型语言模型通过回答预测和自我反思来确定后续的动作。如果需要额外的信息,就会以视频帧的形式获取新的观察结果。

假设LLM确定信息不足以回答问题,并选择搜索新信息。在这种情况下,进一步要求LLM决定需要什么额外信息,以便可以利用工具来获得额外信息。由于视频中某些信息可能出现多次,所以进行分段级别的检索而不是视频级别的检索,以增强时间推理能力。

例如,假设问题是“男孩离开房间后在沙发上留下了什么玩具?”,并且我们在帧 i 中看到了男孩离开房间。如果我们使用查询“显示沙发上的玩具的帧”进行检索,则可能在帧 i 之前存在包含“沙发上的玩具”的帧,但它们与回答问题无关。

Arxiv[1]

引用链接

[1] Arxiv: https://arxiv.org/abs/2403.10517

0
0
0
0
关于作者

文章

0

获赞

0

收藏

0

相关资源
vivo 容器化平台架构与核心能力建设实践
为了实现规模化降本提效的目标,vivo 确定了基于云原生理念构建容器化生态的目标。在容器化生态发展过程中,平台架构不断演进,并针对业务的痛点和诉求,持续完善容器化能力矩阵。本次演讲将会介绍 vivo 容器化平台及主要子系统的架构设计,并分享重点建设的容器化核心能力。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论