deer-flow/README_zh.md
He Wang 08afdcb907
feat(channels): add DingTalk channel integration (#2628)
* feat(channels): add DingTalk channel integration

Add a new DingTalk messaging channel using the dingtalk-stream SDK
with Stream Push (WebSocket), requiring no public IP. Supports both
plain sampleMarkdown replies and optional AI Card streaming for a
typewriter effect when card_template_id is configured.

- Add DingTalkChannel implementation with token management, message
  routing, allowed_users filtering, and markdown adaptation
- Register dingtalk in channel service registry and capability map
- Propagate inbound metadata to outbound messages in ChannelManager
  for DingTalk sender context (sender_staff_id, conversation_type)
- Add dingtalk-stream dependency to pyproject.toml
- Add configuration examples in config.example.yaml and .env.example
- Update all README translations with setup instructions
- Add comprehensive test suite (test_dingtalk_channel.py) and
  metadata propagation test in test_channels.py
- Update backend CLAUDE.md to document DingTalk channel

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>

* fix(channels): address PR review feedback for DingTalk integration

- Replace runtime mutation of CHANNEL_CAPABILITIES with a
  `supports_streaming` property on the Channel base class, overridden
  by DingTalkChannel, FeishuChannel, and WeComChannel
- Store stream client reference and attempt graceful disconnect in
  stop(); guard _on_chatbot_message with _running check to prevent
  post-stop message processing
- Use msg.chat_id as the primary routing key in send/send_file via
  a shared _resolve_routing helper, with metadata as fallback
- Fix process() return type annotation from tuple[str, str] to
  tuple[int, str] to match AckMessage.STATUS_OK
- Protect _incoming_messages with threading.Lock for cross-thread
  safety between the Stream Push thread and the asyncio loop
- Re-add Docker Compose URL guidance removed during DingTalk setup
  docs addition in README.md
- Fix incomplete sentence in README_zh.md (missing verb "启用")

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>

* fix(docs): restore plain paragraph format for Docker Compose note

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>

* fix(channels): fix isinstance TypeError and add file size guard in DingTalk channel

Use tuple syntax for isinstance() type check to avoid runtime TypeError
with PEP 604 union types. Add upload size limit (20MB) before reading
files into memory. Narrow exception handlers to specific types.

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>

* fix(channels): propagate markdown fallback errors and validate access token response

- Re-raise exceptions in _send_markdown_fallback to prevent partial
  deliveries (files sent without accompanying text)
- Validate _get_access_token response: reject non-dict bodies, empty
  tokens, and coerce invalid expireIn to a safe default
- Add tests for both fixes

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>

* fix(channels): validate upload response and broaden send_file exception handling

- Validate _upload_media JSON response: handle JSONDecodeError and
  non-dict payloads gracefully by returning None
- Broaden send_file exception tuple to include TypeError and
  AttributeError for unexpected JSON shapes

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>

* fix(channels): fix streaming race on channel registration and slim outbound metadata

- Register channel in service before calling start() to avoid race
  where background receiver publishes inbound before registration,
  causing manager to fall back to static CHANNEL_CAPABILITIES
- Strip known-large metadata keys (raw_message, ref_msg) from outbound
  messages to prevent memory bloat from propagated inbound payloads

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>

* Update service.py

Co-authored-by: Copilot <175728472+Copilot@users.noreply.github.com>

* Update CLAUDE.md

Co-authored-by: Copilot <175728472+Copilot@users.noreply.github.com>

---------

Co-authored-by: Claude Opus 4.6 <noreply@anthropic.com>
Co-authored-by: Willem Jiang <willem.jiang@gmail.com>
Co-authored-by: Copilot <175728472+Copilot@users.noreply.github.com>
2026-04-30 11:25:33 +08:00

28 KiB
Raw Blame History

🦌 DeerFlow - 2.0

English | 中文 | 日本語 | Français | Русский

Python Node.js License: MIT

bytedance%2Fdeer-flow | Trendshift

2026 年 2 月 28 日DeerFlow 2 发布后登上 GitHub Trending 第 1 名。非常感谢社区的支持,这是大家一起做到的。

DeerFlowDeep Exploration and Efficient Research Flow)是一个开源的 super agent harness。它把 sub-agentsmemorysandbox 组织在一起,再配合可扩展的 skills,让 agent 可以完成几乎任何事情。

https://github.com/user-attachments/assets/a8bcadc4-e040-4cf2-8fda-dd768b999c18

Note

DeerFlow 2.0 是一次彻底重写。 它和 v1 没有共用代码。如果你要找的是最初的 Deep Research 框架,可以前往 1.x 分支。那里仍然欢迎贡献;当前的主要开发已经转向 2.0。

官网

image

想了解更多,或者直接看真实演示,可以访问官网

字节跳动火山引擎方舟 Coding Plan

codingplan -banner 素材

目录

一句话交给 Coding Agent 安装

如果你在用 Claude Code、Codex、Cursor、Windsurf 或其他 coding agent可以直接把下面这句话发给它

如果还没 clone DeerFlow就先 clone然后按照 https://raw.githubusercontent.com/bytedance/deer-flow/main/Install.md 把它的本地开发环境初始化好

这条提示词是给 coding agent 用的。它会在需要时先 clone 仓库,优先选择 Docker完成初始化并在结束时告诉你下一条启动命令以及还缺哪些配置需要你补充。

快速开始

配置

  1. 克隆 DeerFlow 仓库

    git clone https://github.com/bytedance/deer-flow.git
    cd deer-flow
    
  2. 生成本地配置文件

    在项目根目录(deer-flow/)执行:

    make config
    

    这个命令会基于示例模板生成本地配置文件。

  3. 配置你要使用的模型

    编辑 config.yaml,至少定义一个模型:

    models:
      - name: gpt-4                       # 内部标识
        display_name: GPT-4               # 展示名称
        use: langchain_openai:ChatOpenAI  # LangChain 类路径
        model: gpt-4                      # API 使用的模型标识
        api_key: $OPENAI_API_KEY          # API key推荐使用环境变量
        max_tokens: 4096                  # 单次请求最大 tokens
        temperature: 0.7                  # 采样温度
    
      - name: openrouter-gemini-2.5-flash
        display_name: Gemini 2.5 Flash (OpenRouter)
        use: langchain_openai:ChatOpenAI
        model: google/gemini-2.5-flash-preview
        api_key: $OPENAI_API_KEY          # 这里 OpenRouter 依然沿用 OpenAI 兼容字段名
        base_url: https://openrouter.ai/api/v1
    

    OpenRouter 以及类似的 OpenAI 兼容网关,建议通过 langchain_openai:ChatOpenAI 配合 base_url 来配置。如果你更想用 provider 自己的环境变量名,也可以直接把 api_key 指向对应变量,例如 api_key: $OPENROUTER_API_KEY

  4. 为已配置的模型设置 API key

    可任选以下一种方式:

  • 方式 A编辑项目根目录下的 .env 文件(推荐)

    TAVILY_API_KEY=your-tavily-api-key
    OPENAI_API_KEY=your-openai-api-key
    # 如果配置使用的是 langchain_openai:ChatOpenAI + base_urlOpenRouter 也会读取 OPENAI_API_KEY
    # 其他 provider 的 key 按需补充
    INFOQUEST_API_KEY=your-infoquest-api-key
    
  • 方式 B在 shell 中导出环境变量

    export OPENAI_API_KEY=your-openai-api-key
    
  • 方式 C直接编辑 config.yaml(不建议用于生产环境)

    models:
      - name: gpt-4
        api_key: your-actual-api-key-here  # 替换为真实 key
    

运行应用

部署建议与资源规划

可以先按下面的资源档位来选择 DeerFlow 的运行方式:

部署场景 起步配置 推荐配置 说明
本地体验 / make dev 4 vCPU、8 GB 内存、20 GB SSD 可用空间 8 vCPU、16 GB 内存 适合单个开发者或单个轻量会话,且模型走外部 API。2 核 / 4 GB 通常跑不稳。
Docker 开发 / make docker-start 4 vCPU、8 GB 内存、25 GB SSD 可用空间 8 vCPU、16 GB 内存 镜像构建、源码挂载和 sandbox 容器都会比纯本地模式更吃资源。
长期运行服务 / make up 8 vCPU、16 GB 内存、40 GB SSD 可用空间 16 vCPU、32 GB 内存 更适合共享环境、多 agent 任务、报告生成或更重的 sandbox 负载。
  • 上面的配置只覆盖 DeerFlow 本身;如果你还要本机部署本地大模型,请单独为模型服务预留资源。
  • 持续运行的服务更推荐使用 Linux + Docker。macOS 和 Windows 更适合作为开发机或体验环境。
  • 如果 CPU 或内存长期打满,先降低并发会话或重任务数量,再考虑升级到更高一档配置。

方式一Docker推荐

开发模式(支持热更新,挂载源码):

make docker-init    # 拉取 sandbox 镜像(首次运行或镜像更新时执行)
make docker-start   # 启动服务(会根据 config.yaml 自动判断 sandbox 模式)

如果 config.yaml 使用的是 provisioner 模式(sandbox.use: deerflow.community.aio_sandbox:AioSandboxProvider 且配置了 provisioner_urlmake docker-start 才会启动 provisioner

生产模式(本地构建镜像,并挂载运行期配置与数据):

make up     # 构建镜像并启动全部生产服务
make down   # 停止并移除容器

Note

当前 LangGraph agent server 通过开源 CLI 服务 langgraph dev 运行。

访问地址:http://localhost:2026

更完整的 Docker 开发说明见 CONTRIBUTING.md

方式二:本地开发

如果你更希望直接在本地启动各个服务:

前提:先完成上面的“配置”步骤(make config 和模型 API key 配置)。make dev 需要有效配置文件,默认读取项目根目录下的 config.yaml,也可以通过 DEER_FLOW_CONFIG_PATH 覆盖。 在 Windows 上,请使用 Git Bash 运行本地开发流程。基于 bash 的服务脚本不支持直接在原生 cmd.exe 或 PowerShell 中执行,且 WSL 也不保证可用,因为部分脚本依赖 Git for Windows 的 cygpath 等工具。

  1. 检查依赖环境

    make check  # 校验 Node.js 22+、pnpm、uv、nginx
    
  2. 安装依赖

    make install  # 安装 backend + frontend 依赖
    
  3. (可选)预拉取 sandbox 镜像

    # 如果使用 Docker / Container sandbox建议先执行
    make setup-sandbox
    
  4. 启动服务

    make dev
    
  5. 访问地址http://localhost:2026

进阶配置

Sandbox 模式

DeerFlow 支持多种 sandbox 执行方式:

  • 本地执行(直接在宿主机上运行 sandbox 代码)
  • Docker 执行(在隔离的 Docker 容器里运行 sandbox 代码)
  • Docker + Kubernetes 执行(通过 provisioner 服务在 Kubernetes Pod 中运行 sandbox 代码)

Docker 开发时,服务启动行为会遵循 config.yaml 里的 sandbox 模式。在 Local / Docker 模式下,不会启动 provisioner

如果要配置你自己的模式,参见 Sandbox 配置指南

MCP Server

DeerFlow 支持可配置的 MCP Server 和 skills用来扩展能力。 对于 HTTP/SSE MCP Server还支持 OAuth token 流程(client_credentialsrefresh_token)。 详细说明见 MCP Server 指南

IM 渠道

DeerFlow 支持从即时通讯应用接收任务。只要配置完成,对应渠道会自动启动,而且都不需要公网 IP。

渠道 传输方式 上手难度
Telegram Bot APIlong-polling 简单
Slack Socket Mode 中等
Feishu / Lark WebSocket 中等
企业微信智能机器人 WebSocket 中等
钉钉 Stream PushWebSocket 中等

config.yaml 中的配置示例:

channels:
  # LangGraph Server URL默认http://localhost:2024
  langgraph_url: http://localhost:2024
  # Gateway API URL默认http://localhost:8001
  gateway_url: http://localhost:8001

  # 可选:所有移动端渠道共用的全局 session 默认值
  session:
    assistant_id: lead_agent  # 也可以填自定义 agent 名;渠道层会自动转换为 lead_agent + agent_name
    config:
      recursion_limit: 100
    context:
      thinking_enabled: true
      is_plan_mode: false
      subagent_enabled: false

  feishu:
    enabled: true
    app_id: $FEISHU_APP_ID
    app_secret: $FEISHU_APP_SECRET
    # domain: https://open.feishu.cn       # 国内版(默认)
    # domain: https://open.larksuite.com   # 国际版

  wecom:
    enabled: true
    bot_id: $WECOM_BOT_ID
    bot_secret: $WECOM_BOT_SECRET

  slack:
    enabled: true
    bot_token: $SLACK_BOT_TOKEN     # xoxb-...
    app_token: $SLACK_APP_TOKEN     # xapp-...Socket Mode
    allowed_users: []               # 留空表示允许所有人

  telegram:
    enabled: true
    bot_token: $TELEGRAM_BOT_TOKEN
    allowed_users: []               # 留空表示允许所有人

    # 可选:按渠道 / 按用户单独覆盖 session 配置
    session:
      assistant_id: mobile-agent  # 这里同样支持自定义 agent 名
      context:
        thinking_enabled: false
      users:
        "123456789":
          assistant_id: vip-agent
          config:
            recursion_limit: 150
          context:
            thinking_enabled: true
            subagent_enabled: true

  dingtalk:
    enabled: true
    client_id: $DINGTALK_CLIENT_ID             # 钉钉开放平台 ClientId
    client_secret: $DINGTALK_CLIENT_SECRET     # 钉钉开放平台 ClientSecret
    allowed_users: []                          # 留空表示允许所有人
    card_template_id: ""                       # 可选AI 卡片模板 ID用于流式打字机效果

说明:

  • assistant_id: lead_agent 会直接调用默认的 LangGraph assistant。
  • 如果 assistant_id 填的是自定义 agent 名DeerFlow 仍然会走 lead_agent,同时把该值注入为 agent_name,这样 IM 渠道也会生效对应 agent 的 SOUL 和配置。

.env 里设置对应的 API key

# Telegram
TELEGRAM_BOT_TOKEN=123456789:ABCdefGHIjklMNOpqrSTUvwxYZ

# Slack
SLACK_BOT_TOKEN=xoxb-...
SLACK_APP_TOKEN=xapp-...

# Feishu / Lark
FEISHU_APP_ID=cli_xxxx
FEISHU_APP_SECRET=your_app_secret

# 企业微信智能机器人
WECOM_BOT_ID=your_bot_id
WECOM_BOT_SECRET=your_bot_secret

# 钉钉
DINGTALK_CLIENT_ID=your_client_id
DINGTALK_CLIENT_SECRET=your_client_secret

Telegram 配置

  1. 打开 @BotFather,发送 /newbot,复制生成的 HTTP API token。
  2. .env 中设置 TELEGRAM_BOT_TOKEN,并在 config.yaml 里启用该渠道。

Slack 配置

  1. 前往 api.slack.com/apps 创建 Slack AppCreate New App → From scratch。
  2. OAuth & Permissions 中添加 Bot Token Scopesapp_mentions:readchat:writeim:historyim:readim:writefiles:write
  3. 启用 Socket Mode,生成带 connections:write 权限的 App-Level Tokenxapp-...)。
  4. Event Subscriptions 中订阅 bot eventsapp_mentionmessage.im
  5. .env 中设置 SLACK_BOT_TOKENSLACK_APP_TOKEN,并在 config.yaml 中启用该渠道。

Feishu / Lark 配置

  1. 飞书开放平台 创建应用,并启用 Bot 能力。
  2. 添加权限:im:messageim:message.p2p_msg:readonlyim:resource
  3. 事件订阅 中订阅 im.message.receive_v1,连接方式选择 长连接
  4. 复制 App ID 和 App Secret.env 中设置 FEISHU_APP_IDFEISHU_APP_SECRET,并在 config.yaml 中启用该渠道。

企业微信智能机器人配置

  1. 在企业微信智能机器人平台创建机器人,获取 bot_idbot_secret
  2. config.yaml 中启用 channels.wecom,并填入 bot_id / bot_secret
  3. .env 中设置 WECOM_BOT_IDWECOM_BOT_SECRET
  4. 安装后端依赖时确保包含 wecom-aibot-python-sdk,渠道会通过 WebSocket 长连接接收消息,无需公网回调地址。
  5. 当前支持文本、图片和文件入站消息agent 生成的最终图片/文件也会回传到企业微信会话中。

钉钉配置

  1. 钉钉开放平台 创建应用,并启用 机器人 能力。
  2. 在机器人配置页面设置消息接收模式为 Stream模式
  3. 复制 Client IDClient Secret,在 .env 中设置 DINGTALK_CLIENT_IDDINGTALK_CLIENT_SECRET,并在 config.yaml 中启用该渠道。
  4. (可选) 如需开启流式 AI 卡片回复(打字机效果),请在钉钉卡片平台创建 AI 卡片模板,然后在 config.yaml 中将 card_template_id 设为该模板 ID。同时需要申请 Card.Streaming.WriteCard.Instance.Write 权限。

命令

渠道连接完成后,你可以直接在聊天窗口里和 DeerFlow 交互:

命令 说明
/new 开启新对话
/status 查看当前 thread 信息
/models 列出可用模型
/memory 查看 memory
/help 查看帮助

没有命令前缀的消息会被当作普通聊天处理。DeerFlow 会自动创建 thread并以对话方式回复。

LangSmith 链路追踪

DeerFlow 内置了 LangSmith 集成,用于可观测性。启用后,所有 LLM 调用、agent 运行和工具执行都会被追踪,并在 LangSmith 仪表盘中展示。

.env 文件中添加以下配置:

LANGSMITH_TRACING=true
LANGSMITH_ENDPOINT=https://api.smith.langchain.com
LANGSMITH_API_KEY=lsv2_pt_xxxxxxxxxxxxxxxx
LANGSMITH_PROJECT=xxx

Docker 部署时,追踪默认关闭。在 .env 中设置 LANGSMITH_TRACING=trueLANGSMITH_API_KEY 即可启用。

从 Deep Research 到 Super Agent Harness

DeerFlow 最初是一个 Deep Research 框架,后来社区把它一路推到了更远的地方。上线之后,开发者拿它去做的事情早就不止研究:搭数据流水线、生成演示文稿、快速起 dashboard、自动化内容流程很多方向一开始连我们自己都没想到。

这让我们意识到一件事DeerFlow 不只是一个研究工具。它更像一个 harness,一个真正让 agents 把事情做完的运行时基础设施。

所以我们把它从头重做了一遍。

DeerFlow 2.0 不再是一个需要你自己拼装的 framework。它是一个开箱即用、同时又足够可扩展的 super agent harness。基于 LangGraph 和 LangChain 构建,默认就带上了 agent 真正会用到的关键能力文件系统、memory、skills、sandbox 执行环境,以及为复杂多步骤任务做规划、拉起 sub-agents 的能力。

你可以直接拿来用,也可以拆开重组,改成你自己的样子。

核心特性

Skills 与 Tools

Skills 是 DeerFlow 能做“几乎任何事”的关键。

标准的 Agent Skill 是一种结构化能力模块,通常就是一个 Markdown 文件里面定义了工作流、最佳实践以及相关的参考资源。DeerFlow 自带一批内置 skills覆盖研究、报告生成、演示文稿制作、网页生成、图像和视频生成等场景。真正有意思的地方在于它的扩展性你可以加自己的 skills替换内置 skills或者把多个 skills 组合成复合工作流。

Skills 采用按需渐进加载,不会一次性把所有内容都塞进上下文。只有任务确实需要时才加载,这样能把上下文窗口控制得更干净,也更适合对 token 比较敏感的模型。

通过 Gateway 安装 .skill 压缩包时DeerFlow 会接受标准的可选 frontmatter 元数据,比如 versionauthorcompatibility,不会把本来合法的外部 skill 拒之门外。

Tools 也是同样的思路。DeerFlow 自带一组核心工具网页搜索、网页抓取、文件操作、bash 执行;同时也支持通过 MCP Server 和 Python 函数扩展自定义工具。你可以替换任何一项,也可以继续往里加。

Gateway 生成后续建议时,现在会先把普通字符串输出和 block/list 风格的富文本内容统一归一化,再去解析 JSON 数组响应,因此不同 provider 的内容包装方式不会再悄悄把建议吞掉。

# sandbox 容器内的路径
/mnt/skills/public
├── research/SKILL.md
├── report-generation/SKILL.md
├── slide-creation/SKILL.md
├── web-page/SKILL.md
└── image-generation/SKILL.md

/mnt/skills/custom
└── your-custom-skill/SKILL.md      ← 你的 skill

Claude Code 集成

借助 claude-to-deerflow skill你可以直接在 Claude Code 里和正在运行的 DeerFlow 实例交互。不用离开终端,就能下发研究任务、查看状态、管理 threads。

安装这个 skill

npx skills add https://github.com/bytedance/deer-flow --skill claude-to-deerflow

然后确认 DeerFlow 已经启动(默认地址是 http://localhost:2026),在 Claude Code 里使用 /claude-to-deerflow 命令即可。

你可以做的事情包括:

  • 给 DeerFlow 发送消息,并接收流式响应
  • 选择执行模式flash更快、standard、pro规划模式、ultrasub-agents 模式)
  • 检查 DeerFlow 健康状态,列出 models / skills / agents
  • 管理 threads 和会话历史
  • 上传文件做分析

环境变量(可选,用于自定义端点):

DEERFLOW_URL=http://localhost:2026            # 统一代理基地址
DEERFLOW_GATEWAY_URL=http://localhost:2026    # Gateway API
DEERFLOW_LANGGRAPH_URL=http://localhost:2026/api/langgraph  # LangGraph API

完整 API 说明见 skills/public/claude-to-deerflow/SKILL.md

Sub-Agents

复杂任务通常不可能一次完成DeerFlow 会先拆解,再执行。

lead agent 可以按需动态拉起 sub-agents。每个 sub-agent 都有自己独立的上下文、工具和终止条件。只要条件允许,它们就会并行运行,返回结构化结果,最后再由 lead agent 汇总成一份完整输出。

这也是 DeerFlow 能处理从几分钟到几小时任务的原因。比如一个研究任务,可以拆成十几个 sub-agents分别探索不同方向最后合并成一份报告或者一个网站或者一套带生成视觉内容的演示文稿。一个 harness多路并行。

Sandbox 与文件系统

DeerFlow 不只是“会说它能做”,它是真的有一台自己的“电脑”。

每个任务都运行在隔离的 Docker 容器里,里面有完整的文件系统,包括 skills、workspace、uploads、outputs。agent 可以读写和编辑文件,可以执行 bash 命令和代码,也可以查看图片。整个过程都在 sandbox 内完成,可审计、会隔离,不会在不同 session 之间互相污染。

这就是“带工具的聊天机器人”和“真正有执行环境的 agent”之间的差别。

# sandbox 容器内的路径
/mnt/user-data/
├── uploads/          ← 你的文件
├── workspace/        ← agents 的工作目录
└── outputs/          ← 最终交付物

Context Engineering

隔离的 Sub-Agent Context:每个 sub-agent 都在自己独立的上下文里运行。它看不到主 agent 的上下文,也看不到其他 sub-agents 的上下文。这样做的目的很直接,就是让它只聚焦当前任务,不被无关信息干扰。

摘要压缩:在单个 session 内DeerFlow 会比较积极地管理上下文,包括总结已完成的子任务、把中间结果转存到文件系统、压缩暂时不重要的信息。这样在长链路、多步骤任务里,它也能保持聚焦,而不会轻易把上下文窗口打爆。

长期记忆

大多数 agents 会在对话结束后把一切都忘掉DeerFlow 不一样。

跨 session 使用时DeerFlow 会逐步积累关于你的持久 memory包括你的个人偏好、知识背景以及长期沉淀下来的工作习惯。你用得越多它越了解你的写作风格、技术栈和重复出现的工作流。memory 保存在本地,控制权也始终在你手里。

推荐模型

DeerFlow 对模型没有强绑定,只要实现了 OpenAI 兼容 API 的 LLM理论上都可以接入。不过在下面这些能力上表现更强的模型通常会更适合 DeerFlow

  • 长上下文窗口100k+ tokens适合深度研究和多步骤任务
  • 推理能力,适合自适应规划和复杂拆解
  • 多模态输入,适合理解图片和视频
  • 稳定的 tool use 能力,适合可靠的函数调用和结构化输出

内嵌 Python Client

DeerFlow 也可以作为内嵌的 Python 库使用,不必启动完整的 HTTP 服务。DeerFlowClient 提供了进程内的直接访问方式,覆盖所有 agent 和 Gateway 能力,返回的数据结构与 HTTP Gateway API 保持一致:

from deerflow.client import DeerFlowClient

client = DeerFlowClient()

# Chat
response = client.chat("Analyze this paper for me", thread_id="my-thread")

# StreamingLangGraph SSE 协议values、messages-tuple、end
for event in client.stream("hello"):
    if event.type == "messages-tuple" and event.data.get("type") == "ai":
        print(event.data["content"])

# 配置与管理:返回值与 Gateway 对齐的 dict
models = client.list_models()        # {"models": [...]}
skills = client.list_skills()        # {"skills": [...]}
client.update_skill("web-search", enabled=True)
client.upload_files("thread-1", ["./report.pdf"])  # {"success": True, "files": [...]}

所有返回 dict 的方法都会在 CI 中通过 Gateway 的 Pydantic 响应模型校验(TestGatewayConformance),以确保内嵌 client 始终和 HTTP API schema 保持同步。完整 API 说明见 backend/packages/harness/deerflow/client.py

文档

⚠️ 安全使用

不恰当的部署可能导致安全风险

DeerFlow 具备系统指令执行、资源操作、业务逻辑调用等关键高权限能力,默认设计为部署在本地可信环境(仅本机 127.0.0.1 回环访问)。若您将 agent 部署至不可信局域网、公网云服务器等可被多终端访问的网络环境,且未采取严格的安全防护措施,可能导致安全风险,例如:

  • 未授权的非法调用agent 功能被未授权的第三方、公网恶意扫描程序探测到,进而发起批量非法调用请求,执行系统命令、文件读写等高危操作,可能导致安全后果。
  • 合规与法律风险:若 agent 被非法调用用于实施网络攻击、信息窃取等违法违规行为,可能产生法律责任与合规风险。

安全使用建议

注意:建议您将 DeerFlow 部署在本地可信的网络环境下。 若您有跨设备、跨网络的部署需求,必须加入严格的安全措施。例如,采取如下手段:

  • 设置访问 IP 白名单:使用 iptables,或部署硬件防火墙 / 带访问控制ACL功能的交换机等配置规则设置 IP 白名单,拒绝其他所有 IP 进行访问。
  • 前置身份验证配置反向代理nginx 等),并开启高强度的前置身份验证功能,禁止无任何身份验证的访问。
  • 网络隔离:若有可能,建议将 agent 和可信设备划分到同一个专用 VLAN,与其他网络设备做隔离。
  • 持续关注项目更新:请持续关注 DeerFlow 项目的安全功能更新。

参与贡献

欢迎参与贡献。开发环境、工作流和相关规范见 CONTRIBUTING.md

目前回归测试已经覆盖 Docker sandbox 模式识别,以及 backend/tests/ 中 provisioner kubeconfig-path 处理相关测试。

许可证

本项目采用 MIT License 开源发布。

致谢

DeerFlow 建立在开源社区大量优秀工作的基础上。所有让 DeerFlow 成为可能的项目和贡献者,我们都心怀感谢。毫不夸张地说,我们是站在巨人的肩膀上继续往前走。

特别感谢以下项目带来的关键支持:

  • LangChain:它们提供的优秀框架支撑了我们的 LLM 交互与 chains让整体集成和能力编排顺畅可用。
  • LangGraph:它们在多 agent 编排上的创新方式,是 DeerFlow 复杂工作流得以成立的重要基础。

这些项目体现了开源协作真正的力量,我们也很高兴能继续建立在这些基础之上。

核心贡献者

感谢 DeerFlow 的核心作者,是他们的判断、投入和持续推进,才让这个项目真正落地:

Star History

Star History Chart