前置条件
在开始之前,请确保您已拥有模型供应商的 API KEY(例如 Anthropic、OpenAI)。第一步:安装依赖
本指南使用 Tavily 作为搜索供应商的示例,但您可以替换为任何搜索 API(例如 DuckDuckGo、SerpAPI、Brave Search)。
第二步:设置您的 API KEY
- Anthropic
- OpenAI
- Google
- OpenRouter
- Fireworks
- Baseten
- Ollama
- 其他
第三步:创建搜索工具
第四步:创建 Deep Agent
provider:model 格式的 model 字符串,或传入已初始化的模型实例。若无指定,默认为 anthropic:claude-sonnet-4-6。请参阅所有支持的模型以便了解所有供应商和经过测试并推荐的建议模型。
- Anthropic
- OpenAI
- Google
- OpenRouter
- Fireworks
- Baseten
- Ollama
- 其他
第五步:运行智能体
它是如何工作的?
您的 Deep Agent 会自动:- 规划方案——使用内置的
write_todos工具来分解研究任务。 - 分析研究——调用
internet_search工具收集信息。 - 管理上下文——使用文件系统工具(
write_file、read_file)将大量搜索结果保存下来。 - 子智能体扩展——根据需要委托复杂的子任务给专门的子智能体。
- 综合报告——将所有结果组织成条理清晰的响应。
示例
有关您可以使用 Deep Agents 构建的智能体、模式和应用程序,请参阅示例。流式处理
Deep Agents 内置了根据智能体执行返回实时更新的流式处理功能,这些功能来自于 LangGraph 。 这允许您逐步观察输出,查看和调试智能体和子智能体的工作,例如工具调用、工具结果和 LLM 响应。下一步
现在您已经构建了您的第一个 Deep Agent,下一步你可以:通过 MCP 将这些文档 连接到 Claude、VSCode 等,获取实时答案。

