DeerFlow 2.0:字节跳动开源的超级 Agent 框架

DeerFlow 2.0:字节跳动开源的超级 Agent 框架,GitHub 登顶 #1 的秘密
项目地址:https://github.com/bytedance/deer-flow
Stars:32,700+(2026年3月)
语言:Python + Node.js
许可证:MIT
官网:https://deerflow.tech
一、从深度研究到超级 Agent:一次彻底的重生
2026年2月28日,GitHub Trending 榜单上出现了一个熟悉又陌生的名字——DeerFlow 2.0。熟悉,是因为它的前身 DeerFlow 1.x 早已是 AI 研究领域的知名工具;陌生,是因为这次的 2.0 版本是一次从零开始的完全重写,与旧版本没有任何共享代码。
就在发布当天,DeerFlow 2.0 登上了 GitHub Trending 全球第一的位置。
这不是偶然。
DeerFlow 的全称是 Deep Exploration and Efficient Research Flow,由字节跳动(ByteDance)开源。它最初是一个深度研究框架,帮助用户自动化信息收集、分析和报告生成。但社区的使用方式远远超出了团队的预期——开发者们用它构建数据管道、生成 PPT 幻灯片、搭建仪表盘、自动化内容工作流……
这些意料之外的用法告诉团队一件事:DeerFlow 不只是一个研究工具,它是一个 Agent 运行时框架(Harness)——一个能让 AI Agent 真正完成工作的基础设施。
于是,他们决定重建它。
二、什么是"超级 Agent 框架"?
在理解 DeerFlow 2.0 之前,我们需要先厘清一个概念:Agent Harness(Agent 框架/运行时)。
传统的 AI 应用是"问答式"的:用户提问,模型回答,交互结束。而 Agent 系统则不同——它能够自主规划、调用工具、执行多步骤任务,甚至在任务过程中动态调整策略。
但即便是 Agent,也面临一个核心挑战:复杂任务的执行环境。一个 Agent 需要:
- 访问文件系统
- 执行代码
- 调用外部工具和 API
- 管理长期记忆
- 协调多个子任务并行执行
这就是 Harness 的价值所在——它不是 Agent 本身,而是让 Agent 能够高效运作的基础设施层。
DeerFlow 2.0 的定位正是如此:一个开箱即用、完全可扩展的超级 Agent 运行时框架,内置了 Agent 所需的一切:文件系统、记忆、技能(Skills)、沙箱执行环境,以及规划和生成子 Agent 的能力。
三、核心架构解析
3.1 技术栈选择
DeerFlow 2.0 构建在两个核心开源框架之上:
- LangGraph:负责多 Agent 编排,提供有状态的工作流管理
- LangChain:负责 LLM 交互和工具链集成
这个选择并非偶然。LangGraph 的图状态机模型非常适合处理复杂的多步骤任务,而 LangChain 的生态系统则提供了丰富的工具和模型集成。
整体架构分为前后端两部分:
- 后端:Python 3.12+,基于 LangGraph 的 Agent 服务器
- 前端:Node.js 22+,提供 Web UI 界面
- 访问地址:默认运行在
http://localhost:2026
3.2 Skills 系统:让 Agent 能做"几乎任何事"
DeerFlow 最具特色的设计之一是其 Skills(技能)系统。
一个标准的 Agent Skill 是一个结构化的能力模块——本质上是一个 Markdown 文件,定义了工作流程、最佳实践和支持资源的引用。这个设计看似简单,却极为强大:
/mnt/skills/public
├── research/SKILL.md
├── report-generation/SKILL.md
├── slide-creation/SKILL.md
├── web-page/SKILL.md
└── image-generation/SKILL.md
/mnt/skills/custom
└── your-custom-skill/SKILL.md ← 你的自定义技能
DeerFlow 内置了研究、报告生成、幻灯片创建、网页生成、图像和视频生成等核心技能。但真正的威力在于可扩展性:你可以添加自己的技能、替换内置技能,或将多个技能组合成复合工作流。
更重要的是,Skills 是按需加载的——只有当任务需要某个技能时才会加载,而不是一次性全部加载。这保持了上下文窗口的精简,使 DeerFlow 在对 Token 敏感的模型上也能良好运行。
3.3 Sub-Agents:并行处理复杂任务
复杂任务很少能在单次执行中完成。DeerFlow 的解决方案是子 Agent 系统。
主 Agent(Lead Agent)可以在运行时动态生成子 Agent,每个子 Agent 都有:
- 独立的上下文(与主 Agent 和其他子 Agent 隔离)
- 专属的工具集
- 明确的终止条件
子 Agent 在可能的情况下并行运行,将结构化结果汇报给主 Agent,由主 Agent 综合所有输出,生成最终结果。
这就是 DeerFlow 能处理"需要数分钟到数小时"任务的原因:一个研究任务可能会分裂成十几个子 Agent,每个探索不同的角度,最终汇聚成一份报告、一个网站,或者一套带有生成视觉内容的幻灯片。
一个框架,多双手。
3.4 沙箱执行环境:Agent 拥有自己的"电脑"
这是 DeerFlow 与众多 Agent 框架最本质的区别之一。
DeerFlow 不只是"谈论"做事——它真的在做事。
每个任务都在一个隔离的 Docker 容器中运行,拥有完整的文件系统:
/mnt/user-data/
├── uploads/ ← 你的文件
├── workspace/ ← Agent 的工作目录
└── outputs/ ← 最终交付物
Agent 可以读写文件、执行 Bash 命令、编写和运行代码、查看图像。所有操作都在沙箱中进行,会话之间零污染,完全可审计。
这就是**聊天机器人(有工具访问权限)和真正的 Agent(有实际执行环境)**之间的本质区别。
沙箱支持三种模式:
- 本地执行:直接在宿主机上运行沙箱代码
- Docker 执行:在隔离的 Docker 容器中运行
- Docker + Kubernetes:通过 Provisioner 服务在 Kubernetes Pod 中运行
3.5 上下文工程:在长任务中保持"清醒"
长任务最大的挑战之一是上下文窗口管理。随着任务推进,上下文不断累积,最终可能超出模型的处理能力。
DeerFlow 通过两种机制解决这个问题:
隔离的子 Agent 上下文:每个子 Agent 在独立的上下文中运行,无法看到主 Agent 或其他子 Agent 的上下文。这确保了子 Agent 能专注于当前任务,不被无关信息干扰。
主动摘要压缩:在会话内,DeerFlow 会主动管理上下文——对已完成的子任务进行摘要、将中间结果卸载到文件系统、压缩不再立即相关的内容。这让它在长达数小时的多步骤任务中依然保持高效。
3.6 长期记忆:越用越懂你
大多数 Agent 在对话结束后就"忘记"了一切。DeerFlow 不同。
跨会话,DeerFlow 会构建关于用户的持久记忆:个人偏好、技术栈、常用工作流。使用越多,它对你的了解就越深——你的写作风格、技术背景、重复出现的工作模式。
记忆存储在本地,完全由用户控制。
值得一提的是,DeerFlow 2.0 还修复了一个常见问题:记忆更新时会跳过重复的事实条目,避免相同的偏好和上下文在多次会话后无限累积。
四、即时通讯集成:从聊天 App 直接调度 Agent
DeerFlow 支持从主流即时通讯应用接收任务,且无需公网 IP:
| 渠道 | 传输方式 | 难度 |
|---|---|---|
| Telegram | Bot API(长轮询) | 简单 |
| Slack | Socket Mode | 中等 |
| 飞书 / Lark | WebSocket | 中等 |
配置完成后,你可以直接在聊天 App 中使用以下命令:
| 命令 | 功能 |
|---|---|
/new | 开始新对话 |
/status | 查看当前线程信息 |
/models | 列出可用模型 |
/memory | 查看记忆 |
/help | 显示帮助 |
没有命令前缀的消息会被视为普通对话——DeerFlow 会创建一个线程并进行对话式响应。
五、Claude Code 集成:从终端直接控制 DeerFlow
DeerFlow 提供了一个专门的 claude-to-deerflow 技能,让你可以直接从 Claude Code 终端与运行中的 DeerFlow 实例交互:
npx skills add https://github.com/bytedance/deer-flow --skill claude-to-deerflow
安装后,在 Claude Code 中使用 /claude-to-deerflow 命令,你可以:
- 向 DeerFlow 发送研究任务并获取流式响应
- 选择执行模式:flash(快速)、standard(标准)、pro(规划)、ultra(子 Agent)
- 检查 DeerFlow 健康状态、列出模型/技能/Agent
- 管理线程和对话历史
- 上传文件进行分析
六、嵌入式 Python 客户端:无需 HTTP 服务
DeerFlow 还可以作为嵌入式 Python 库使用,无需运行完整的 HTTP 服务:
from deerflow.client import DeerFlowClient
client = DeerFlowClient()
# 普通对话
response = client.chat("帮我分析这篇论文", thread_id="my-thread")
# 流式输出(LangGraph SSE 协议)
for event in client.stream("你好"):
if event.type == "messages-tuple" and event.data.get("type") == "ai":
print(event.data["content"])
# 配置和管理
models = client.list_models() # {"models": [...]}
skills = client.list_skills() # {"skills": [...]}
client.update_skill("web-search", enabled=True)
client.upload_files("thread-1", ["./report.pdf"])
所有返回字典的方法都在 CI 中通过 Gateway Pydantic 响应模型进行验证,确保嵌入式客户端与 HTTP API 保持同步。
七、快速上手
方式一:Docker(推荐)
# 克隆仓库
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
# 生成配置文件
make config
# 拉取沙箱镜像(仅需一次)
make docker-init
# 启动服务
make docker-start
访问 http://localhost:2026 即可使用。
方式二:本地开发
# 检查前置条件(Node.js 22+, pnpm, uv, nginx)
make check
# 安装依赖
make install
# 启动服务
make dev
模型配置
DeerFlow 是模型无关的,支持任何实现 OpenAI 兼容 API 的 LLM。在 config.yaml 中配置:
models:
- name: gpt-4
display_name: GPT-4
use: langchain_openai:ChatOpenAI
model: gpt-4
api_key: $OPENAI_API_KEY
max_tokens: 4096
temperature: 0.7
# 使用 OpenRouter 接入 Gemini
- name: openrouter-gemini-2.5-flash
display_name: Gemini 2.5 Flash (OpenRouter)
use: langchain_openai:ChatOpenAI
model: google/gemini-2.5-flash-preview
api_key: $OPENAI_API_KEY
base_url: https://openrouter.ai/api/v1
字节跳动官方推荐使用以下模型获得最佳效果:
- Doubao-Seed-2.0-Code(字节自研)
- DeepSeek v3.2
- Kimi 2.5
八、与同类项目的对比
| 特性 | DeerFlow 2.0 | AutoGPT | CrewAI | Manus |
|---|---|---|---|---|
| 沙箱执行环境 | ✅ Docker 隔离 | ❌ | ❌ | ✅ |
| 子 Agent 并行 | ✅ | 有限 | ✅ | ✅ |
| 长期记忆 | ✅ 本地持久化 | 有限 | ❌ | ✅ |
| Skills 系统 | ✅ Markdown 定义 | ❌ | ✅ | ❌ |
| IM 集成 | ✅ 多平台 | ❌ | ❌ | ❌ |
| 嵌入式客户端 | ✅ | ❌ | ❌ | ❌ |
| 开源 | ✅ MIT | ✅ MIT | ✅ MIT | ❌ |
| 本地部署 | ✅ | ✅ | ✅ | ❌ |
DeerFlow 的核心优势在于完整的执行环境——它不只是一个 Agent 编排框架,而是一个包含沙箱、记忆、技能系统的完整运行时。这使它更接近于一个"能真正干活的 AI 工作站",而不仅仅是一个"能规划任务的 AI 助手"。
九、InfoQuest:字节跳动的智能搜索工具集成
DeerFlow 2.0 还集成了字节跳动旗下 BytePlus 独立开发的智能搜索和爬取工具集——InfoQuest。
InfoQuest 支持免费在线体验,为 DeerFlow 提供了更强大的信息获取能力,特别是在需要大规模网络信息收集和分析的场景下。
十、为什么 DeerFlow 2.0 能登顶 GitHub Trending?
回顾 DeerFlow 2.0 的成功,有几个关键因素值得关注:
1. 时机恰当:2026年初,AI Agent 领域正处于从"概念验证"到"实际落地"的关键转折点。开发者们迫切需要一个能真正处理复杂任务的框架,而不只是演示用的 Demo。
2. 完整的执行环境:沙箱 + 文件系统 + 代码执行,这三者的组合让 DeerFlow 能处理真实世界的任务,而不只是简单的信息查询。
3. 字节跳动的背书:作为全球顶级科技公司,字节跳动的开源项目天然具有可信度和关注度。
4. 社区驱动的演进:DeerFlow 2.0 的诞生本身就是社区反馈的产物——用户的实际使用方式推动了框架的根本性重设计。
5. 开放的生态:MIT 许可证 + 完全可扩展的 Skills 系统 + 多模型支持,降低了采用门槛,鼓励了社区贡献。
十一、适用场景
DeerFlow 2.0 特别适合以下场景:
- 深度研究与报告生成:自动收集、分析、综合多源信息,生成结构化报告
- 数据管道构建:自动化数据获取、处理、分析和可视化
- 内容创作工作流:从研究到写作到发布的全流程自动化
- 代码生成与分析:结合沙箱执行环境,进行复杂的代码任务
- 多步骤业务自动化:需要多个工具协作、跨越多个步骤的复杂业务流程
十二、总结
DeerFlow 2.0 代表了 AI Agent 框架发展的一个重要方向:从"能规划"到"能执行"。
它不满足于成为一个优雅的编排框架,而是提供了一个完整的执行环境——沙箱、记忆、技能、子 Agent——让 AI 真正拥有"做事"的能力,而不只是"说事"的能力。
字节跳动选择将这样一个强大的工具以 MIT 许可证开源,对整个 AI 社区来说是一份厚礼。无论你是在构建企业级 AI 应用,还是在探索 Agent 技术的边界,DeerFlow 2.0 都值得深入研究。
GitHub 地址:https://github.com/bytedance/deer-flow
官方网站:https://deerflow.tech
当前 Stars:32,700+(仍在快速增长)
本文基于 DeerFlow 2.0 官方 README 及 GitHub 项目信息整理,发布于 2026年3月22日。
Comments