Deep Agents CLI 支持任何与 LangChain 兼容的聊天模型提供商,解锁了对几乎所有支持工具调用的 LLM 的使用。任何暴露 OpenAI 兼容或 Anthropic 兼容 API 的服务也可以开箱即用 —— 请参阅兼容 API

快速开始

CLI 自动与以下模型提供商集成:除了安装相关提供商包外,无需额外配置。
  1. 安装提供商包 每个模型提供商都需要安装其相应的 LangChain 集成包。这些在安装 CLI 时作为可选扩展提供,这样做是为了保持应用程序轻量:
    # 快速安装选定的提供商
    # OpenAI、Anthropic 和 Gemini 默认包含
    DEEPAGENTS_EXTRAS="baseten,groq" curl -LsSf https://raw.githubusercontent.com/langchain-ai/deepagents/refs/heads/main/libs/cli/scripts/install.sh | bash
    
    # 或直接使用 uv 安装
    uv tool install 'deepagents-cli[baseten,groq]'
    
    # 稍后添加额外的包
    uv tool install deepagents-cli --with langchain-ollama
    
    # 所有提供商
    uv tool install 'deepagents-cli[anthropic,baseten,bedrock,cohere,deepseek,fireworks,google-genai,groq,huggingface,ibm,litellm,mistralai,nvidia,ollama,openai,openrouter,perplexity,vertexai,xai]'
    
  2. 设置凭证 将 API 密钥存储在 ~/.deepagents/.env 中,这样它们在所有项目中都可用,或者在 shell 中导出:
    ANTHROPIC_API_KEY=sk-ant-...
    OPENAI_API_KEY=sk-...
    
    某些提供商使用其他凭证(例如,Vertex AI 使用 GOOGLE_CLOUD_PROJECT 加上 ADC)。请参阅下表了解每个提供商需要的变量。您还可以使用 DEEPAGENTS_CLI_ 前缀 将凭证限定于 CLI。

提供商参考

使用这里未列出的提供商?请参阅任意提供商:任何与 LangChain 兼容的提供商都可以通过额外设置在 CLI 中使用。
提供商凭证环境变量模型配置文件
OpenAIlangchain-openaiOPENAI_API_KEY
Azure OpenAIlangchain-openaiAZURE_OPENAI_API_KEY
Anthropiclangchain-anthropicANTHROPIC_API_KEY
Google Gemini APIlangchain-google-genaiGOOGLE_API_KEY
Google Vertex AIlangchain-google-genaiGOOGLE_CLOUD_PROJECT
Basetenlangchain-basetenBASETEN_API_KEY
AWS Bedrocklangchain-awsAWS_ACCESS_KEY_IDAWS_SECRET_ACCESS_KEY
AWS Bedrock Converselangchain-awsAWS_ACCESS_KEY_IDAWS_SECRET_ACCESS_KEY
Hugging Facelangchain-huggingfaceHUGGINGFACEHUB_API_TOKEN
Ollamalangchain-ollama可选
Groqlangchain-groqGROQ_API_KEY
Coherelangchain-cohereCOHERE_API_KEY
Fireworkslangchain-fireworksFIREWORKS_API_KEY
Togetherlangchain-togetherTOGETHER_API_KEY
Mistral AIlangchain-mistralaiMISTRAL_API_KEY
DeepSeeklangchain-deepseekDEEPSEEK_API_KEY
IBM (watsonx.ai)langchain-ibmWATSONX_APIKEY
Nvidialangchain-nvidia-ai-endpointsNVIDIA_API_KEY
xAIlangchain-xaiXAI_API_KEY
Perplexitylangchain-perplexityPPLX_API_KEY
OpenRouterlangchain-openrouterOPENROUTER_API_KEY
LiteLLMlangchain-litellm按提供商(请参阅文档
您可以通过添加 DEEPAGENTS_CLI_ 前缀将任何凭证限定于 CLI。例如,DEEPAGENTS_CLI_OPENAI_API_KEY 在 CLI 内部优先于 OPENAI_API_KEY,而不影响其他工具。请参阅 DEEPAGENTS_CLI_ 前缀 了解更多详情。
模型配置文件 是随提供商包一起提供的一组元数据(模型名称、默认参数、能力等),主要由 models.dev 项目提供支持。包含模型配置文件的提供商会在交互式 /model 切换器中自动列出其模型,受过滤条件约束(特别是必须启用 tool_calling)。没有模型配置文件的提供商需要您直接指定模型名称或通过 config.toml 添加模型。

模型路由器和代理

OpenRouterLiteLLM 这样的模型路由器通过单一端点提供对多个提供商模型的访问。 使用这些服务的专用集成包:
路由器配置
OpenRouterlangchain-openrouteropenrouter:<model>(内置,请参阅提供商参考
LiteLLMlangchain-litellmlitellm:<model>(内置,请参阅提供商参考
OpenRouter 是一个内置提供商 —— 安装包后直接使用:
uv tool install 'deepagents-cli[openrouter]'
LiteLLM 也是一个内置提供商:
uv tool install 'deepagents-cli[litellm]'

切换模型

要在 CLI 中切换模型,请执行以下操作之一:
  1. 使用交互式模型切换器/model 命令。这会显示从每个已安装的 LangChain 提供商包的模型配置文件中获取的可用模型。
    并非所有模型都会出现在这里。如果您的模型缺失,请直接传递模型名称(例如 /model gpt-5.4)。请参阅哪些模型出现在切换器中了解更多详情。
  2. 直接指定模型名称作为参数,例如 /model gpt-5.4。您可以使用所选提供商支持的任何模型,而不管它是否出现在选项 1 的列表中。模型名称将传递给 API 请求。
  3. 在启动时通过 --model 指定模型,例如
    deepagents --model openai:gpt-5.4
    

哪些模型出现在切换器中

/model 选择器从已安装的提供商包动态构建其列表。展开下方查看完整标准和故障排除。
交互式 /model 选择器动态构建其列表 —— 它不是硬编码到 CLI 中的列表。当所有以下条件都满足时,模型会出现在切换器中:
  1. 提供商包已安装。 每个提供商(例如 langchain-anthropiclangchain-openai)必须与 deepagents-cli 一起安装 —— 作为安装扩展(例如 uv tool install 'deepagents-cli[ollama]')或稍后用 uv tool install deepagents-cli --with <package> 添加。如果包缺失,其整个提供商部分会从切换器中消失。
  2. 模型有启用 tool_calling 的配置文件。 CLI 需要工具调用支持,因此配置文件中没有 tool_calling: true 的模型会被排除。这是模型从列表中缺失的最常见原因。对于不捆绑配置文件的提供商(请参阅提供商参考表),您可以在 config.toml 中定义一个:
    [models.providers.ollama.profile."qwen3:4b"]
    tool_calling = true
    max_input_tokens = 32768
    max_output_tokens = 8192
    
    这不是模型出现在切换器中的严格要求 —— 将其添加到 models 列表 也可以,而且更简单。当您希望 CLI 知道模型的上下文窗口和能力以支持自动总结等功能时,配置文件很有用。请参阅配置文件覆盖了解所有可覆盖的字段。
  3. 模型接受并生成文本。 其配置文件明确将 text_inputstext_outputs 设置为 false 的模型(例如嵌入或图像生成模型)会被排除。
config.toml[models.providers.<name>].models 下定义的模型会绕过配置文件过滤器 —— 无论配置文件元数据如何,它们始终出现在切换器中。这是向列表中缺失的模型添加模型的推荐方式。
凭证状态不会影响模型是否被列出。切换器显示所有符合条件的模型,并在每个提供商标题旁边显示凭证指示器:已确认凭证的勾号、缺失凭证的警告,或凭证状态未知时的问号。您仍然可以选择凭证缺失的模型 —— 提供商会在请求时报告身份验证错误。

故障排除缺失的模型

症状可能原因修复
整个提供商从切换器中缺失提供商包未安装安装包(例如 uv tool install deepagents-cli --with langchain-groq
提供商显示但特定模型缺失模型配置文件有 tool_calling: false 或不存在配置文件将模型添加到 config.toml 中的 [models.providers.<name>].models,或直接使用 /model <provider>:<model>
提供商显示 ⚠ “缺失凭证”API 密钥环境变量未设置提供商参考表中设置凭证环境变量
提供商显示 ? “凭证未知”提供商使用 CLI 无法验证的非标准身份验证凭证可能仍然有效 —— 尝试切换到模型。如果身份验证失败,请检查提供商的文档

设置默认模型

您可以设置一个持久化的默认模型,用于所有未来的 CLI 启动:
  • 通过模型选择器: 打开 /model,导航到所需的模型,然后按 Ctrl+S 将其固定为默认值。再次在当前默认模型上按 Ctrl+S 会清除它。
  • 通过命令: /model --default provider:model(例如 /model --default anthropic:claude-opus-4-6
  • 通过配置文件:~/.deepagents/config.toml 中设置 [models].default(请参阅配置)。
  • 从 shell:
    deepagents --default-model anthropic:claude-opus-4-6
    
查看当前默认值:
deepagents --default-model
清除默认值:
  • 从 shell:
    deepagents --clear-default-model
    
  • 通过命令: /model --default --clear
  • 通过模型选择器: 在当前固定的默认模型上按 Ctrl+S
如果没有默认值,CLI 将默认使用最近使用的模型。

模型解析顺序

当 CLI 启动时,它按以下顺序解析要使用的模型:
  1. --model 标志在提供时始终获胜。
  2. [models].default~/.deepagents/config.toml 中 —— 用户的长期意向性偏好。
  3. [models].recent~/.deepagents/config.toml 中 —— 上次通过 /model 切换到的模型。自动写入;永远不会覆盖 [models].default
  4. 环境自动检测:回退到第一个可用的启动凭证,按顺序检查:OPENAI_API_KEYANTHROPIC_API_KEYGOOGLE_API_KEYGOOGLE_CLOUD_PROJECT(Vertex AI)。
此启动回退故意只检查这四个凭证。其他支持的提供商(例如 Groq)仍然可通过 --model/model 和保存的默认值([models].default / [models].recent)使用。

高级配置

有关提供商参数、配置文件覆盖、自定义 base URL、兼容 API、任意提供商和生命周期钩子的详细配置,请参阅配置