Skip to main content
Deep Agents 可与任何支持工具调用LangChain 聊天模型 协同工作。

传入模型字符串

指定模型的最简单方式是向 create_deep_agent 传入一个字符串。使用 provider:model 格式来选择特定的提供商:
agent = create_deep_agent(model="openai:gpt-5.3-codex")
在底层,这会使用默认参数调用 init_chat_model

配置模型参数

要配置模型特定的参数,请使用 init_chat_model 或直接实例化提供商模型类:
from langchain.chat_models import init_chat_model
from deepagents import create_deep_agent

model = init_chat_model(
    model="anthropic:claude-sonnet-4-6",
    thinking={"type": "enabled", "budget_tokens": 10000},
)
agent = create_deep_agent(model=model)
可用参数因提供商而异。有关提供商特定的配置选项,请参阅聊天模型集成页面。

在运行时选择模型

如果你的应用程序允许用户选择模型(例如通过 UI 中的下拉菜单),可以使用中间件在运行时切换模型,而无需重新构建智能体。 通过运行时上下文传递用户的模型选择,然后使用 wrap_model_call 中间件,通过 @wrap_model_call 装饰器在每次调用时覆盖模型:
from dataclasses import dataclass
from langchain.chat_models import init_chat_model
from langchain.agents.middleware import wrap_model_call, ModelRequest, ModelResponse
from deepagents import create_deep_agent
from typing import Callable


@dataclass
class Context:
    model: str

@wrap_model_call
def configurable_model(
    request: ModelRequest,
    handler: Callable[[ModelRequest], ModelResponse],
) -> ModelResponse:
    model_name = request.runtime.context.model
    model = init_chat_model(model_name)
    return handler(request.override(model=model))

agent = create_deep_agent(
    model="anthropic:claude-sonnet-4-6",
    middleware=[configurable_model],
    context_schema=Context,
)

# 使用用户选择的模型进行调用
result = agent.invoke(
    {"messages": [{"role": "user", "content": "Hello!"}]},
    context=Context(model="openai:gpt-4.1"),
)
关于更多动态模型模式(例如基于对话复杂性或成本优化的路由),请参阅 LangChain 智能体指南中的动态模型

支持的模型

Deep Agents 可与任何支持工具调用的聊天模型协同工作。有关支持的提供商的完整列表,请参阅聊天模型集成

推荐模型

这些模型在 Deep Agents 评估套件 上表现良好,该套件测试基本的智能体操作。通过这些评估是必要的,但对于在更长、更复杂的任务上获得强大性能来说还不够充分。
提供商模型
Anthropicclaude-opus-4-6, claude-opus-4-5, claude-sonnet-4-6, claude-sonnet-4, claude-sonnet-4-5, claude-haiku-4-5, claude-opus-4-1
OpenAIgpt-5.4, gpt-4o, gpt-4.1, o4-mini, gpt-5.2-codex, gpt-4o-mini, o3
Googlegemini-3-flash-preview, gemini-3.1-pro-preview
开源权重模型GLM-5, Kimi-K2.5, MiniMax-M2.5, qwen3.5-397B-A17B, devstral-2-123B
开源权重模型可通过 BasetenFireworksOpenRouterOllama 等提供商获取。

了解更多