点击上方👆蓝字关注我们!
你有没有遇到这种情况:让 AI 处理一项复杂任务时,它做着做着就"忘了"原本的目标?最终无法提供一个完整的交付物?
DeerFlow 2.0 正是为解决这一痛点而生。它不是普通的聊天机器人,而是一个什么都能干,并且能真正执行完超长复杂任务的高级智能体。
最近这段时间,Agent Harness 的热度持续攀升。于是,我们做了一个尝试,用 DeerFlow 2.0 配置方舟 Coding Plan,对 Harness 进行了深度调研,最终产出了完整的深度调研报告、科普图片、PPT、以及介绍视频。
⬇️ 先来看一下最终成果
DeerFlow 自动对较早的消息进行摘要压缩,让 Agent 在跨越数十轮对话的长时间复杂调研任务中始终保持清醒,最终产出深入浅出的调研报告。
完成调研之后,还可以同一个对话中继续操作,让 DeerFlow 调用 Seedream 5.0 lite,生成浅显易懂的科普 PPT 图片。
还是在同一个对话里,让 DeerFlow 调用 Seedance 1.5 pro,就能生成 DeerFlow 介绍视频,甚至它还总结出了调用 Seedance 生成视频的最佳实践指南。
有没有被这些效果惊艳到?一起看看 DeerFlow 是如何完成的⬇️
第一步:深度研究
首先,让 DeerFlow 深度研究一下最近很火的 Agent Harness 概念。
它会自动把复杂调研任务拆解成并行的子任务。
每一步思考过程都清晰可见。
最后产出的报告非常专业。
然后,继续让它深度研究 DeerFlow 2.0 架构。
同样有非常详细和合理的子任务拆解。
报告内容也非常详实。
在这个过程中,DeerFlow 具备出色的上下文工程能力,可自动对较早的消息进行摘要压缩,让 Agent 在跨越数轮对话的长任务中始终保持清醒。
第二步:图片生成
基于刚刚生成的研究报告,可通过 DeerFlow 调用 seedream 5.0,生成手绘科普信息图并制作 PPT。在这一过程中,上下文同样被自动压缩,核心任务始终保持清晰。
在给出反馈意见后,它能够快速进一步修正。
最终生成的图片效果出色,内容完全基于刚刚产出的调研报告,在长上下文中始终保持一致。
第三步:视频生成
接下来,继续使用 seedance 生成 DeerFlow 介绍视频。期间抽卡了很多次,但它一直没有忘记核心任务。
在经过多次纠错后,它还自动总结了调用 seedance 生成视频的最佳实践指南。
最后生成的效果非常理想。
那么,DeerFlow 2.0 到底为什么这么厉害?一起来深度剖析下。
DeerFlow 2.0 深度剖析
DeerFlow 2.0 不是一个聊天机器人框架,也不是一个简单的工具调用封装。
它是一个 Super Agent Harness —— 一个让 AI Agent 真正能完成复杂、长周期任务的"运行时基础设施"。
什么是 Agent Harness?
要理解 DeerFlow 2.0 为什么特别,先要搞清楚一个概念。
-
Framework(框架):提供抽象,给你工具,让你自己拼装。LangChain、LangGraph 都是 Framework。
-
Harness(驾驭装置):内置最佳实践,开箱即用,"batteries included",比 Framework 更有主见(opinionated)。
一个典型的 Harness 包含什么?
-
内置 Planning 能力
-
上下文自动压缩机制
-
文件系统工具
-
Memory 系统(跨会话记忆)
-
Sub-agent 调度能力
-
预设的高质量提示词模板
LangChain 和 LangGraph 是地基;DeerFlow 2.0 是在这个地基上,已经建好的、可入住的房子。
从一个研究框架,到一个高级智能体
DeerFlow 1.0 最初是做深度研究。
1.0 版本的架构很清晰:5 个固定角色的 Agent 组成一条流水线——
Coordinator → Planner → Researcher / Coder(并行)→ Reporter
搜集信息、交叉验证、输出有结构、有引用、有深度的研究报告,这套东西跑得非常流畅。
但大家真正在用的,不是 DeerFlow 的 "Research" 能力,而是它底下那套让 Agent 能真正做事的“运行时基础设施”。
有人拿它搭数据分析流水线,有人批量生成 PPT,有人做自动化内容工厂,甚至有人接到内部系统做运维巡检。这些用法千差万别,但都指向同一件事:它们需要 Agent 持续规划、调度子任务、操作文件、执行代码,最终交付完整产出物。
1.0 的问题在哪里?
5 个固定角色 Agent ,它的问题是角色固化:想加一个"设计师 Agent"?得改图、加节点、调边——本质上是在改框架。同时所有 Agent 共享同一份 State,上下文浪费严重,扩展性也差。
2.0 的解法:Lead Agent + Middleware + Sub-agent
整个架构用一段代码说清楚:
defmake_lead_agent(config):
return create_agent(
model=..., # 动态选择的大语言模型
tools=..., # 动态组装的工具集
middleware=..., # 11 层中间件链
system_prompt=...,# 动态生成的系统提示词
)
只有一个 Lead Agent。 它的能力不在于"多个 Agent 各司其职",而在于:
-
工具集(Tools)可以动态扩展
-
Middleware 链负责所有"基础设施"工作
-
复杂任务时,它会动态拉起 Sub-agent 并行处理
想扩展能力?加一个 Tool 或 Skill 即可,不需要调整架构。
五大核心能力:Deer Flow 2.0 的优势
1. Skills 系统:让 Agent "什么都会干"
一个 Skill 本质上就是一个目录,里面放一个 SKILL.md——用 Markdown 写的结构化能力描述,包含工作流程、最佳实践和参考资源。
DeerFlow 2.0 出厂自带:
Skill
|
能做什么
| |
deep-research
|
深度调研报告
| |
data-analysis
|
SQL/Python 分析 Excel/CSV
| |
chart-visualization
|
数据可视化图表生成
| |
web-design-guidelines
|
网页设计与生成
| |
image-generation
|
AI 图片生成
| |
video-generation
|
AI 视频生成
| |
podcast-generation
|
播客生成
| |
ppt-generation
|
PPT 幻灯片生成
| |
github-deep-research
|
GitHub 仓库深度分析
| |
skill-creator
|
用 AI 创建新的 Skill,提供了 Claude Code 的原版功能
|
关键设计:Skills 采用渐进式加载。 只有任务真正需要时才加载对应的 Skill,不会把所有内容塞进上下文窗口。这让 DeerFlow 在 Token 敏感的模型上也能保持高效。
更重要的是:你可以写自己的 Skill,放进 skills/custom/ 目录,DeerFlow 立即能用。 把团队内部的工作流程、领域知识、最佳实践全部封装成 Skill,让 Agent 直接继承你的经验。
2. Sandbox 沙箱:Agent 真正有了自己的"电脑"
DeerFlow 的 Agent 不只是"会说话"——它有自己的计算机。
每个任务运行在隔离的沙箱环境中,Agent 可以:
-
读写文件、执行 Bash 命令
-
运行 Python 脚本、安装依赖包
-
像在真实终端里操作一样
/mnt/user-data/
├── uploads/ ← 你上传的文件
├── workspace/ ← Agent 的工作目录
└── outputs/ ← 最终交付物
这就是**"带工具的聊天机器人"和"真正有执行环境的 Agent"之间的差别** 。沙箱支持 Local / Docker / Kubernetes 三种模式,同一套代码在本地开发和容器部署中无需任何修改。
3. Sub-agent 并行调度:一个 Harness,多双手
复杂任务很少能一步到位。DeerFlow 的 Lead Agent 可以随时拆分任务,将子任务委派给多个 Sub-agent 并行执行。
底层采用双线程池架构:
-
调度线程池:负责任务排队和编排
-
执行线程池:负责实际的 Agent 执行(支持超时)
一个典型的深度研究任务: Lead Agent 一口气派出 3 个 Sub-agent,分别调研不同子话题,各自搜索、阅读、整理。Sub-agent 完成后将结构化结果返回,由 Lead Agent 汇总成最终报告。
Sub-agent 的隔离是刻意为之的——它看不到主 Agent 和其他 Sub-agent 的上下文,越专注,结果越好。
4. Context Engineering:11 层中间件,让 Agent 跑长任务不"失忆"
Agent 跑 long-horizon 任务最大的挑战不是能力不够,是上下文窗口不够用。
DeerFlow 2.0 的每一次 Agent 调用,都经过一条精心编排的 Middleware 链:
middlewares = [
ThreadDataMiddleware(), # 1. 创建线程目录结构
UploadsMiddleware(), # 2. 注入新上传的文件
SandboxMiddleware(), # 3. 分配沙箱
DanglingToolCallMiddleware(), # 4. 修补中断的工具调用
# 5. 上下文摘要(自动压缩)
# 6. TodoList 计划模式
# 7. 自动生成会话标题
# 8. 异步记忆更新
# 9. 图像注入(视觉模型)
# 10. Sub-agent 并发限流
ClarificationMiddleware(), # 11. 用户澄清拦截(最后执行)
]
11 个 Middleware 各司其职,让上下文管理、沙箱分配、记忆更新等"基础设施"工作与 Agent 的核心逻辑完全解耦。 想加一个新的横切能力?写一个 Middleware 插进链里就行。
当对话接近 Token 上限时,DeerFlow 会自动对较早的消息进行摘要压缩,让 Agent 在跨越数十轮对话的长任务中始终保持清醒。
5. 长期记忆:用得越多,它越懂你
绝大多数 Agent 在会话结束的那一刻就失忆了。DeerFlow 2.0 不会。
它会在每次对话中悄悄提取关键信息,以结构化 Fact 形式存入本地 memory.json:
-
用户画像:工作背景、个人偏好、当前关注点
-
时间线:近期互动摘要、历史背景
-
事实库:具体知识点,每条都有置信度评分(0.7-1.0)
记忆更新采用异步队列 + 去重 + 防抖设计,不阻塞对话流程。所有数据存储在本地,完全由你掌控。
一句话总结
DeerFlow 2.0 的核心不是"更多工具",而是让 Agent 真正跑得完复杂任务。完整的 Harness 设计,Skills、沙箱、并行子任务、上下文压缩、长期记忆,五个机制叠在一起,才是它区别于普通 AI 工具的根本原因。
接下来,手把手带你配置自己的 DeerFlow,搭配火山方舟 Coding Plan,让它真正帮你干活⬇️
保姆级配置教程
1. 下载安装、配置 DeerFlow
-
新开终端,克隆 DeerFlow 仓库
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
-
生成本地配置文件
在项目根目录(deer-flow/)执行:
make config
这个命令会基于示例模板生成本地配置文件。
-
配置你要使用的模型
在项目根目录(deer-flow/)中找到 config.yaml,编辑配置文件
找到 models 字段,至少配置一个模型。推荐开通方舟 Coding Plan 使用
前往开通方舟 Coding Plan (https://www.volcengine.com/activity/codingplan?\_vtm\_=0.0.c202308.d201952.0)
可参考如下代码配置方舟 Coding Plan 模型:
-name:volcengine-plan-doubao-seed-2.0-pro
display_name:doubao-seed-2.0-pro
use:deerflow.models.patched_deepseek:PatchedChatDeepSeek
model:doubao-seed-2.0-pro
api_base:https://ark.cn-beijing.volces.com/api/coding/v3
api_key:$VOLCENGINE_API_KEY
supports_thinking:true
supports_vision:true
supports_reasoning_effort:true
when_thinking_enabled:
extra_body:
thinking:
type:enabled
这里推荐使用 TRAE / VS Code 的工具来编辑配置文件:
-
配置飞书机器人
同样在 config.yaml 中编辑,找到 channels
参考如下代码配置飞书 IM
-
为已配置的模型设置 API Key:
获取方舟 API Key (https://console.volcengine.com/ark/region:ark+cn-beijing/apiKey?apikey=%7B%7D)
一键开通飞书机器人:立即创建 (https://open.feishu.cn/page/openclaw?form=multiAgent)
在项目根目录(deer-flow/)中找到 .env,再将 API Key 和飞书机器人的 App ID,App Secret 复制粘贴到 .env 文件当中。
2. 运行应用
-
通过 Docker 启动 DeerFlow
make up
-
打开浏览器,前往 http://localhost:2026/ 使用
也可以直接在飞书上和 DeerFlow 进行对话
写在最后:
从深度调研、科普信息图、PPT 制作到介绍视频生成,DeerFlow 2.0 依托完善的上下文工程与开源 Harness 能力,全程稳定承接复杂长链任务,始终锚定核心目标不偏移。再配合方舟 Coding Plan 与开源的灵活性,超长复杂任务不再是挑战。现在,你也可以轻松搭建属于自己的高级智能体,高效精准地完成各项复杂任务。
