Deep Agents CLI 支持任何兼容 LangChain 的聊天模型提供商,从而解锁几乎所有支持工具调用的 LLM 的使用。任何提供 OpenAI 兼容或 Anthropic 兼容 API 的服务也可以开箱即用——请参阅兼容的 API。
快速开始
CLI 会自动与以下模型提供商集成:除了安装相关的提供商包之外,无需额外配置。
-
安装提供商包
每个模型提供商都需要安装其对应的 LangChain 集成包。这些包在安装 CLI 时可以作为可选附加项安装:
# 快速安装并选择提供商(OpenAI 自动包含)
DEEPAGENTS_EXTRAS="anthropic,groq" curl -LsSf https://raw.githubusercontent.com/langchain-ai/deepagents/refs/heads/main/libs/cli/scripts/install.sh | bash
# 或者使用 uv 直接安装
uv tool install 'deepagents-cli[anthropic,groq]'
# 稍后添加额外的包
uv tool install deepagents-cli --with langchain-ollama
# 所有提供商
uv tool install 'deepagents-cli[anthropic,baseten,bedrock,cohere,deepseek,fireworks,google-genai,groq,huggingface,ibm,litellm,mistralai,nvidia,ollama,openai,openrouter,perplexity,vertexai,xai]'
-
设置凭据
大多数提供商需要 API 密钥。请设置下表中列出的相应环境变量。一些提供商使用其他凭据(例如,Vertex AI 使用
GOOGLE_CLOUD_PROJECT 加上 ADC)。详情请参考每个集成包的文档。
切换模型
要在 CLI 中切换模型,可以:
-
使用交互式模型切换器,通过
/model 命令。这会显示从每个已安装的 LangChain 提供商包的模型配置文件中获取的可用模型。
这些配置文件并非可用模型的详尽列表。如果您想要的模型没有显示,请改用选项 2(对于尚未添加到配置文件的新发布模型很有用)。有关完整条件集,请参阅哪些模型会出现在切换器中。
-
直接指定模型名称作为参数,例如
/model openai:gpt-4o。您可以使用所选提供商支持的任何模型,无论它是否出现在选项 1 的列表中。模型名称将被传递给 API 请求。
-
在启动时指定模型,通过
--model,例如:
deepagents --model openai:gpt-4o
哪些模型会出现在切换器中
交互式 /model 选择器动态构建其列表——它不是硬编码到 CLI 中的固定列表。当满足所有以下条件时,模型会出现在切换器中:
-
提供商包已安装。 每个提供商(例如
langchain-anthropic、langchain-openai)必须与 deepagents-cli 一起安装——可以作为安装附加项(例如 uv tool install 'deepagents-cli[anthropic]')安装,或者稍后通过 uv tool install deepagents-cli --with <package> 添加。如果缺少某个包,其整个提供商部分将不会出现在切换器中。
-
模型配置文件启用了
tool_calling。 CLI 是一个工具调用代理,因此它会过滤掉不支持工具调用的模型,如其配置文件数据所示。这是模型从列表中缺失的最常见原因。对于不捆绑配置文件的提供商(参见提供商参考表),您可以在 config.toml 中定义一个:
[models.providers.ollama.profile."qwen3:4b"]
tool_calling = true
max_input_tokens = 32768
max_output_tokens = 8192
这并不是模型出现在切换器中的严格要求——将其添加到 models 列表中也可以,而且更简单。当您希望 CLI 了解模型的上下文窗口和能力以支持自动摘要等功能时,配置文件很有用。有关所有可覆盖的字段,请参阅配置文件覆盖。
-
模型接受并生成文本。 配置文件明确将
text_inputs 或 text_outputs 设置为 false 的模型(例如嵌入或图像生成模型)会被排除。
在 config.toml 的 [models.providers.<name>].models 下定义的模型会绕过配置文件过滤器——无论配置文件元数据如何,它们总是出现在切换器中。这是添加列表中缺失模型的推荐方法。
凭据状态不会影响模型是否被列出。切换器显示所有符合条件的模型,并在每个提供商标题旁边显示凭据指示器:对已确认的凭据显示勾号,对缺失的凭据显示警告,对凭据状态未知的情况显示问号。您仍然可以选择凭据缺失的模型——提供商将在请求时报告身份验证错误。
排查缺失模型问题
| 现象 | 可能原因 | 解决方法 |
|---|
| 整个提供商在切换器中缺失 | 提供商包未安装 | 安装该包(例如 uv tool install deepagents-cli --with langchain-groq) |
| 提供商显示但特定模型缺失 | 模型配置文件有 tool_calling: false 或不存在配置文件 | 将模型添加到 config.toml 中的 [models.providers.<name>].models,或直接使用 /model <provider>:<model> |
| 提供商显示 ⚠ “凭据缺失” | API 密钥环境变量未设置 | 设置提供商参考表中的凭据环境变量 |
| 提供商显示 ? “凭据未知” | 提供商使用 CLI 无法验证的非标准身份验证 | 凭据可能仍然有效——尝试切换到该模型。如果身份验证失败,请检查提供商的文档 |
设置默认模型
您可以设置一个持久的默认模型,用于所有未来的 CLI 启动:
-
通过模型选择器: 打开
/model,导航到所需模型,然后按 Ctrl+S 将其固定为默认值。在当前默认模型上再次按 Ctrl+S 会清除它。
-
通过命令:
/model --default provider:model(例如,/model --default anthropic:claude-opus-4-6)
-
通过配置文件: 在
~/.deepagents/config.toml 中设置 [models].default(参见配置)。
-
从 shell:
deepagents --default-model anthropic:claude-opus-4-6
要查看当前默认值:
deepagents --default-model
要清除默认值:
-
从 shell:
deepagents --clear-default-model
-
通过命令:
/model --default --clear
-
通过模型选择器: 在当前固定的默认模型上按
Ctrl+S。
如果没有默认值,CLI 将默认使用最近使用的模型。
模型解析顺序
当 CLI 启动时,它按以下顺序解析使用哪个模型:
--model 标志在提供时总是优先。
~/.deepagents/config.toml 中的 [models].default——用户有意的长期偏好。
~/.deepagents/config.toml 中的 [models].recent——最近通过 /model 切换到的模型。自动写入;从不覆盖 [models].default。
- 环境自动检测:回退到第一个可用的启动凭据,按顺序检查:
OPENAI_API_KEY、ANTHROPIC_API_KEY、GOOGLE_API_KEY、GOOGLE_CLOUD_PROJECT(Vertex AI)。
此启动回退有意仅检查这四个凭据。其他支持的提供商(例如 Groq)仍然可以通过 --model、/model 和保存的默认值([models].default / [models].recent)使用。
模型路由器和代理
模型路由器如 OpenRouter 和 LiteLLM 通过单个端点提供对多个提供商模型的访问。
使用这些服务的专用集成包:
OpenRouter 是一个内置提供商——安装包并直接使用:
uv tool install 'deepagents-cli[openrouter]'
LiteLLM 也是一个内置提供商:
uv tool install 'deepagents-cli[litellm]'
高级配置
有关提供商参数、配置文件覆盖、自定义基础 URL、兼容 API、任意提供商和生命周期钩子的详细配置,请参阅配置。