还记得笔者之前关于未来趋势思考的文章吗?随着LLM技术和Agent的不断发展,一个面向Agent友好的互联网将要出现。
搜索、推荐之后,下一个打破信息差促进信息流动的历史性机会是什么?
Agent和multiAgent系统发展的速度比我们想象的快,将会有越来越多的Agent加入到网络中,然而,异构的LLM 之间的通信效率低下,严重制约了 AI Agent网络的规模化应用。来自牛津大学的研究团队提出的 Agora 协议,为解决这一难题提供了创新方案。
化解 Agent 通信三难困境
Agora 协议旨在实现 LLM 代理之间的高效通信,使 diverse Agent能够以较低成本进行交互。它兼容现有的多代理框架,如 Camel AI 、LangChain 和Swarm 等。Agora 协议的核心优势在于巧妙解决了"Agent Communication Trilemma"(Agent通信三难问题),即同时确保通信的多样性、效率和可移植性。这个问题长期困扰着 AI 研究者,Agora 通过创新的方法实现了三者的平衡。
核心实现步骤
Agora 协议通过四个关键步骤实现高效通信:
自然语言初始交互 :利用所有 LLM 都能理解自然语言的特点,作为初始交互方式。这确保了通信的多样性和灵活性。
-
协商共享协议 :两个未曾交互的Agent使用自然语言协商出共享协议。这一步骤使用了基于语义相似度的协议匹配算法,确保不同Agent能快速达成共识。
-
LLM 编写routine(例行)程序 :一旦Agent就结构化数据交换达成一致,LLM 会编写例行程序。这些程序是用Agent选择的语言(如 Python 或JavaScript)编写的简单脚本,通常包含数据序列化、解析和基本错误处理功能。
-
高效数据交换 :使用预先协商的协议和编写的routine程序,Agent们可以高效地交换结构化数据,大大减少了对 LLM 的调用次数。
实现亮点
- 协议识别 :Agent使用描述协议的 TXT 文件的 SHA1 哈希值来识别正在使用的协议。这个 TXT 文件包含了协议的详细规范,包括数据格式、字段定义和通信流程。
- 失败处理机制 :如果例行程序失败,系统会启动多级故障恢复机制。首先,LLM 会尝试修复或重写失败的程序。如果修复失败,LLM 会接管并使用自然语言发送查询或回复,确保通信不会中断。
- 协议复用与优化 :经协商同意的协议可以在其他Agent间共享和重复使用。系统会维护一个协议库,随着使用频率的增加,popular 的协议会被优化和标准化。
- 去中心化设计 :Agora 采用完全去中心化模型,无需权威节点。每个Agent都可以独立协商和执行协议,增强了系统的鲁棒性和可扩展性。
实际效果与案例
Agora 团队进行了一项涉及 100 个Agent的演示,这些Agent配备了各种 LLM(如 GPT-3.5 、LLAMA 、BERT 等)和数据库技术。在一个多语言翻译任务中,Agora 协议展现了其强大的协调能力:
- 中文文本输入给中文 LLM Agent
- 中文 LLM 使用 Agora 协议与英文 LLM 协商翻译协议
- 翻译后的英文文本再传递给法语 LLM 进行二次翻译
- 最终输出法语文本
整个过程中,Agora 协议确保了高效的跨语言模型通信,将任务完成时间从传统方法的几分钟缩短到了几秒钟,同时将成本降低了约 5倍。
小结
Agora 协议为构建全球异构Agent网络的有效探索,拥有广阔的应用前景。目前,Agora 团队正在开发下一个版本的协议,计划增加更多适用于实际应用场景的功能,如动态协议适应、安全通信层和更高级的失败恢复机制。
可以说,Agora 协议的提出和实施,虽然不一定会是最终的Agent网络的标准,但这样的探索必将会是Agent网络向Agent互联网演进的里程碑代表。
项目地址:https://agoraprotocol.org/
近期原创文章:
- Swarm:一个OpenAI开源的multiAgent框架,简单哲学的代表
- 为什么 AI 在数学题前抓瞎?苹果研究揭示 AI 推理能力的局限性
- 为什么LLM无法真正推理?OpenAI的o1也无法改变这一事实 原创
- 克制大模型怪脾气的新招——基于意图的提示校准降低LLM提示敏感度问题,让大模型表现更稳定 原创
- Anthropic提出Contextual Retrieval让RAG再进化,大幅降低检索失败率 原创
- 测试时计算vs.预训练计算:LLM进化的重大转折 原创
- AI"破解"AI:来自Claude协助的OpenAI o1模型架构图
- OpenAI o1模型推理能力大幅提升的背后:重复采样如何提升AI推理能力
- OpenAI前研究科学家开源面向未来的提示工程库 ell,重新定义提示工程
- 揭秘MemoRAG:AI记忆模块如何提升生成质量
后台回复“进群”入群讨论
橱窗有更多精选好书,欢迎光临!