DeerFlow 2.0:字节跳动开源的超级 Agent 框架

audJr.jpg

DeerFlow 2.0:字节跳动开源的超级 Agent 框架,GitHub 登顶 #1 的秘密

项目地址https://github.com/bytedance/deer-flow
Stars:32,700+(2026年3月)
语言:Python + Node.js
许可证:MIT
官网https://deerflow.tech


一、从深度研究到超级 Agent:一次彻底的重生

2026年2月28日,GitHub Trending 榜单上出现了一个熟悉又陌生的名字——DeerFlow 2.0。熟悉,是因为它的前身 DeerFlow 1.x 早已是 AI 研究领域的知名工具;陌生,是因为这次的 2.0 版本是一次从零开始的完全重写,与旧版本没有任何共享代码。

就在发布当天,DeerFlow 2.0 登上了 GitHub Trending 全球第一的位置。

这不是偶然。

DeerFlow 的全称是 Deep Exploration and Efficient Research Flow,由字节跳动(ByteDance)开源。它最初是一个深度研究框架,帮助用户自动化信息收集、分析和报告生成。但社区的使用方式远远超出了团队的预期——开发者们用它构建数据管道、生成 PPT 幻灯片、搭建仪表盘、自动化内容工作流……

这些意料之外的用法告诉团队一件事:DeerFlow 不只是一个研究工具,它是一个 Agent 运行时框架(Harness)——一个能让 AI Agent 真正完成工作的基础设施。

于是,他们决定重建它。


二、什么是"超级 Agent 框架"?

在理解 DeerFlow 2.0 之前,我们需要先厘清一个概念:Agent Harness(Agent 框架/运行时)

传统的 AI 应用是"问答式"的:用户提问,模型回答,交互结束。而 Agent 系统则不同——它能够自主规划、调用工具、执行多步骤任务,甚至在任务过程中动态调整策略。

但即便是 Agent,也面临一个核心挑战:复杂任务的执行环境。一个 Agent 需要:

  • 访问文件系统
  • 执行代码
  • 调用外部工具和 API
  • 管理长期记忆
  • 协调多个子任务并行执行

这就是 Harness 的价值所在——它不是 Agent 本身,而是让 Agent 能够高效运作的基础设施层

DeerFlow 2.0 的定位正是如此:一个开箱即用、完全可扩展的超级 Agent 运行时框架,内置了 Agent 所需的一切:文件系统、记忆、技能(Skills)、沙箱执行环境,以及规划和生成子 Agent 的能力。


三、核心架构解析

3.1 技术栈选择

DeerFlow 2.0 构建在两个核心开源框架之上:

  • LangGraph:负责多 Agent 编排,提供有状态的工作流管理
  • LangChain:负责 LLM 交互和工具链集成

这个选择并非偶然。LangGraph 的图状态机模型非常适合处理复杂的多步骤任务,而 LangChain 的生态系统则提供了丰富的工具和模型集成。

整体架构分为前后端两部分:

  • 后端:Python 3.12+,基于 LangGraph 的 Agent 服务器
  • 前端:Node.js 22+,提供 Web UI 界面
  • 访问地址:默认运行在 http://localhost:2026

3.2 Skills 系统:让 Agent 能做"几乎任何事"

DeerFlow 最具特色的设计之一是其 Skills(技能)系统

一个标准的 Agent Skill 是一个结构化的能力模块——本质上是一个 Markdown 文件,定义了工作流程、最佳实践和支持资源的引用。这个设计看似简单,却极为强大:

/mnt/skills/public
├── research/SKILL.md
├── report-generation/SKILL.md
├── slide-creation/SKILL.md
├── web-page/SKILL.md
└── image-generation/SKILL.md

/mnt/skills/custom
└── your-custom-skill/SKILL.md  ← 你的自定义技能

DeerFlow 内置了研究、报告生成、幻灯片创建、网页生成、图像和视频生成等核心技能。但真正的威力在于可扩展性:你可以添加自己的技能、替换内置技能,或将多个技能组合成复合工作流。

更重要的是,Skills 是按需加载的——只有当任务需要某个技能时才会加载,而不是一次性全部加载。这保持了上下文窗口的精简,使 DeerFlow 在对 Token 敏感的模型上也能良好运行。

3.3 Sub-Agents:并行处理复杂任务

复杂任务很少能在单次执行中完成。DeerFlow 的解决方案是子 Agent 系统

主 Agent(Lead Agent)可以在运行时动态生成子 Agent,每个子 Agent 都有:

  • 独立的上下文(与主 Agent 和其他子 Agent 隔离)
  • 专属的工具集
  • 明确的终止条件

子 Agent 在可能的情况下并行运行,将结构化结果汇报给主 Agent,由主 Agent 综合所有输出,生成最终结果。

这就是 DeerFlow 能处理"需要数分钟到数小时"任务的原因:一个研究任务可能会分裂成十几个子 Agent,每个探索不同的角度,最终汇聚成一份报告、一个网站,或者一套带有生成视觉内容的幻灯片。

一个框架,多双手。

3.4 沙箱执行环境:Agent 拥有自己的"电脑"

这是 DeerFlow 与众多 Agent 框架最本质的区别之一。

DeerFlow 不只是"谈论"做事——它真的在做事

每个任务都在一个隔离的 Docker 容器中运行,拥有完整的文件系统:

/mnt/user-data/
├── uploads/     ← 你的文件
├── workspace/   ← Agent 的工作目录
└── outputs/     ← 最终交付物

Agent 可以读写文件、执行 Bash 命令、编写和运行代码、查看图像。所有操作都在沙箱中进行,会话之间零污染,完全可审计。

这就是**聊天机器人(有工具访问权限)真正的 Agent(有实际执行环境)**之间的本质区别。

沙箱支持三种模式:

  1. 本地执行:直接在宿主机上运行沙箱代码
  2. Docker 执行:在隔离的 Docker 容器中运行
  3. Docker + Kubernetes:通过 Provisioner 服务在 Kubernetes Pod 中运行

3.5 上下文工程:在长任务中保持"清醒"

长任务最大的挑战之一是上下文窗口管理。随着任务推进,上下文不断累积,最终可能超出模型的处理能力。

DeerFlow 通过两种机制解决这个问题:

隔离的子 Agent 上下文:每个子 Agent 在独立的上下文中运行,无法看到主 Agent 或其他子 Agent 的上下文。这确保了子 Agent 能专注于当前任务,不被无关信息干扰。

主动摘要压缩:在会话内,DeerFlow 会主动管理上下文——对已完成的子任务进行摘要、将中间结果卸载到文件系统、压缩不再立即相关的内容。这让它在长达数小时的多步骤任务中依然保持高效。

3.6 长期记忆:越用越懂你

大多数 Agent 在对话结束后就"忘记"了一切。DeerFlow 不同。

跨会话,DeerFlow 会构建关于用户的持久记忆:个人偏好、技术栈、常用工作流。使用越多,它对你的了解就越深——你的写作风格、技术背景、重复出现的工作模式。

记忆存储在本地,完全由用户控制。

值得一提的是,DeerFlow 2.0 还修复了一个常见问题:记忆更新时会跳过重复的事实条目,避免相同的偏好和上下文在多次会话后无限累积。


四、即时通讯集成:从聊天 App 直接调度 Agent

DeerFlow 支持从主流即时通讯应用接收任务,且无需公网 IP

渠道传输方式难度
TelegramBot API(长轮询)简单
SlackSocket Mode中等
飞书 / LarkWebSocket中等

配置完成后,你可以直接在聊天 App 中使用以下命令:

命令功能
/new开始新对话
/status查看当前线程信息
/models列出可用模型
/memory查看记忆
/help显示帮助

没有命令前缀的消息会被视为普通对话——DeerFlow 会创建一个线程并进行对话式响应。


五、Claude Code 集成:从终端直接控制 DeerFlow

DeerFlow 提供了一个专门的 claude-to-deerflow 技能,让你可以直接从 Claude Code 终端与运行中的 DeerFlow 实例交互:

npx skills add https://github.com/bytedance/deer-flow --skill claude-to-deerflow

安装后,在 Claude Code 中使用 /claude-to-deerflow 命令,你可以:

  • 向 DeerFlow 发送研究任务并获取流式响应
  • 选择执行模式:flash(快速)、standard(标准)、pro(规划)、ultra(子 Agent)
  • 检查 DeerFlow 健康状态、列出模型/技能/Agent
  • 管理线程和对话历史
  • 上传文件进行分析

六、嵌入式 Python 客户端:无需 HTTP 服务

DeerFlow 还可以作为嵌入式 Python 库使用,无需运行完整的 HTTP 服务:

from deerflow.client import DeerFlowClient

client = DeerFlowClient()

# 普通对话
response = client.chat("帮我分析这篇论文", thread_id="my-thread")

# 流式输出(LangGraph SSE 协议)
for event in client.stream("你好"):
    if event.type == "messages-tuple" and event.data.get("type") == "ai":
        print(event.data["content"])

# 配置和管理
models = client.list_models()        # {"models": [...]}
skills = client.list_skills()        # {"skills": [...]}
client.update_skill("web-search", enabled=True)
client.upload_files("thread-1", ["./report.pdf"])

所有返回字典的方法都在 CI 中通过 Gateway Pydantic 响应模型进行验证,确保嵌入式客户端与 HTTP API 保持同步。


七、快速上手

方式一:Docker(推荐)

# 克隆仓库
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow

# 生成配置文件
make config

# 拉取沙箱镜像(仅需一次)
make docker-init

# 启动服务
make docker-start

访问 http://localhost:2026 即可使用。

方式二:本地开发

# 检查前置条件(Node.js 22+, pnpm, uv, nginx)
make check

# 安装依赖
make install

# 启动服务
make dev

模型配置

DeerFlow 是模型无关的,支持任何实现 OpenAI 兼容 API 的 LLM。在 config.yaml 中配置:

models:
  - name: gpt-4
    display_name: GPT-4
    use: langchain_openai:ChatOpenAI
    model: gpt-4
    api_key: $OPENAI_API_KEY
    max_tokens: 4096
    temperature: 0.7

  # 使用 OpenRouter 接入 Gemini
  - name: openrouter-gemini-2.5-flash
    display_name: Gemini 2.5 Flash (OpenRouter)
    use: langchain_openai:ChatOpenAI
    model: google/gemini-2.5-flash-preview
    api_key: $OPENAI_API_KEY
    base_url: https://openrouter.ai/api/v1

字节跳动官方推荐使用以下模型获得最佳效果:

  • Doubao-Seed-2.0-Code(字节自研)
  • DeepSeek v3.2
  • Kimi 2.5

八、与同类项目的对比

特性DeerFlow 2.0AutoGPTCrewAIManus
沙箱执行环境✅ Docker 隔离
子 Agent 并行有限
长期记忆✅ 本地持久化有限
Skills 系统✅ Markdown 定义
IM 集成✅ 多平台
嵌入式客户端
开源✅ MIT✅ MIT✅ MIT
本地部署

DeerFlow 的核心优势在于完整的执行环境——它不只是一个 Agent 编排框架,而是一个包含沙箱、记忆、技能系统的完整运行时。这使它更接近于一个"能真正干活的 AI 工作站",而不仅仅是一个"能规划任务的 AI 助手"。


九、InfoQuest:字节跳动的智能搜索工具集成

DeerFlow 2.0 还集成了字节跳动旗下 BytePlus 独立开发的智能搜索和爬取工具集——InfoQuest

InfoQuest 支持免费在线体验,为 DeerFlow 提供了更强大的信息获取能力,特别是在需要大规模网络信息收集和分析的场景下。


回顾 DeerFlow 2.0 的成功,有几个关键因素值得关注:

1. 时机恰当:2026年初,AI Agent 领域正处于从"概念验证"到"实际落地"的关键转折点。开发者们迫切需要一个能真正处理复杂任务的框架,而不只是演示用的 Demo。

2. 完整的执行环境:沙箱 + 文件系统 + 代码执行,这三者的组合让 DeerFlow 能处理真实世界的任务,而不只是简单的信息查询。

3. 字节跳动的背书:作为全球顶级科技公司,字节跳动的开源项目天然具有可信度和关注度。

4. 社区驱动的演进:DeerFlow 2.0 的诞生本身就是社区反馈的产物——用户的实际使用方式推动了框架的根本性重设计。

5. 开放的生态:MIT 许可证 + 完全可扩展的 Skills 系统 + 多模型支持,降低了采用门槛,鼓励了社区贡献。


十一、适用场景

DeerFlow 2.0 特别适合以下场景:

  • 深度研究与报告生成:自动收集、分析、综合多源信息,生成结构化报告
  • 数据管道构建:自动化数据获取、处理、分析和可视化
  • 内容创作工作流:从研究到写作到发布的全流程自动化
  • 代码生成与分析:结合沙箱执行环境,进行复杂的代码任务
  • 多步骤业务自动化:需要多个工具协作、跨越多个步骤的复杂业务流程

十二、总结

DeerFlow 2.0 代表了 AI Agent 框架发展的一个重要方向:从"能规划"到"能执行"

它不满足于成为一个优雅的编排框架,而是提供了一个完整的执行环境——沙箱、记忆、技能、子 Agent——让 AI 真正拥有"做事"的能力,而不只是"说事"的能力。

字节跳动选择将这样一个强大的工具以 MIT 许可证开源,对整个 AI 社区来说是一份厚礼。无论你是在构建企业级 AI 应用,还是在探索 Agent 技术的边界,DeerFlow 2.0 都值得深入研究。

GitHub 地址https://github.com/bytedance/deer-flow
官方网站https://deerflow.tech
当前 Stars:32,700+(仍在快速增长)


本文基于 DeerFlow 2.0 官方 README 及 GitHub 项目信息整理,发布于 2026年3月22日。

Comments