支持的模型
使用provider:model 格式指定模型(例如 anthropic:claude-sonnet-4-6 或 openai:gpt-5.4)。有关合法的供应商模型标识符,请参阅 init_chat_model 的 model_provider 参数。有关供应商特定的配置,请参阅聊天模型集成。
推荐的模型
这些模型在 Deep Agents 评估套件 上表现良好,该套件能够测试智能体的基本操作。通过这些评估是必要条件,但对于更长、更复杂的任务来说还不够充分。| 供应商 | 模型 |
|---|---|
| Anthropic | claude-opus-4-6、claude-opus-4-5、claude-sonnet-4-6、claude-sonnet-4、claude-sonnet-4-5、claude-haiku-4-5、claude-opus-4-1 |
| OpenAI | gpt-5.4、gpt-4o、gpt-4.1、o4-mini、gpt-5.2-codex、gpt-4o-mini、o3 |
gemini-3-flash-preview、gemini-3.1-pro-preview | |
| 开源模型 | GLM-5、Kimi-K2.5、MiniMax-M2.5、qwen3.5-397B-A17B、devstral-2-123B |
配置模型参数
将模型字符串以provider:model 格式传递给 create_deep_agent,若想完全定制模型,可传入配置好的模型实例。在底层,模型字符串通过 init_chat_model 解析。
要配置特定于模型的参数,请使用 init_chat_model 或直接实例化供应商模型类:
可用参数因供应商而异。请参阅聊天模型集成页面了解供应商特定的配置选项。
在运行时选择模型
如果您的应用程序允许用户选择模型(例如在 UI 中使用下拉菜单),请使用中间件在运行时切换模型,而无需重建智能体。 通过运行时上下文传递用户选择的模型,然后使用@wrap_model_call 标注过的wrap_model_call 中间件,在每次调用时覆盖智能体中的模型:
了解更多
- LangChain 中的模型:聊天模型功能包括工具调用、结构化输出和多模态
通过 MCP 将这些文档 连接到 Claude、VSCode 等,获取实时答案。

