Skip to main content

概述

路由模式是一种 多智能体 架构,其中路由步骤对输入进行分类并将其定向到专用智能体,结果被综合为组合响应。当组织的知识分布在不同的 垂直领域(每个都需要自己的智能体、专用工具和提示的独立知识域)时,此模式表现出色。 在本教程中,您将构建一个多源知识库路由器,通过真实的企业场景展示这些优势。该系统将协调三个专家:
  • GitHub 智能体:搜索代码、问题和拉取请求。
  • Notion 智能体:搜索内部文档和维基。
  • Slack 智能体:搜索相关线程和讨论。
当用户询问“如何验证 API 请求?”时,路由器将查询分解为特定于来源的子问题,并行将它们路由到相关智能体,并将结果综合为连贯的答案。

为什么使用路由?

路由模式提供几个优势:
  • 并行执行:同时查询多个来源,与顺序方法相比减少延迟。
  • 专用智能体:每个垂直领域都有针对其领域优化的专注工具和提示。
  • 选择性路由:并非每个查询都需要所有来源——路由器智能地选择相关的垂直领域。
  • 针对性子问题:每个智能体接收针对其领域定制的问题,提高结果质量。
  • 清晰综合:来自多个来源的结果被组合成单个连贯的响应。

概念

我们将涵盖以下概念:
路由器与子智能体子智能体模式 也可以路由到多个智能体。当您需要进行专用预处理、自定义路由逻辑或希望显式控制并行执行时,请使用路由模式。当希望 LLM 动态决定调用哪些智能体时,请使用子智能体模式。

设置

安装

本教程需要 langchainlanggraph 包:
pip install langchain langgraph
更多详细信息,请参阅我们的 安装指南

LangSmith

设置 LangSmith 以检查智能体内部发生的情况。然后设置以下环境变量:
export LANGSMITH_TRACING="true"
export LANGSMITH_API_KEY="..."

选择 LLM

从 LangChain 的集成套件中选择聊天模型:
👉 Read the OpenAI chat model integration docs
pip install -U "langchain[openai]"
import os
from langchain.chat_models import init_chat_model

os.environ["OPENAI_API_KEY"] = "sk-..."

model = init_chat_model("gpt-5.2")

1. 定义状态

首先,定义状态模式。我们使用三种类型:
  • AgentInput:传递给每个子智能体的简单状态(仅查询)
  • AgentOutput:每个子智能体返回的结果(来源名称 + 结果)
  • RouterState:主工作流状态,跟踪查询、分类、结果和最终答案
from typing import Annotated, Literal, TypedDict
import operator


class AgentInput(TypedDict):
    """Simple input state for each subagent."""
    query: str


class AgentOutput(TypedDict):
    """Output from each subagent."""
    source: str
    result: str


class Classification(TypedDict):
    """A single routing decision: which agent to call with what query."""
    source: Literal["github", "notion", "slack"]
    query: str


class RouterState(TypedDict):
    query: str
    classifications: list[Classification]
    results: Annotated[list[AgentOutput], operator.add]  # Reducer collects parallel results
    final_answer: str
results 字段使用 归约器(Python 中的 operator.add,JS 中的 concat 函数)来收集并行智能体执行的输出到一个列表中。

2. 为每个垂直领域定义工具

为每个知识域创建工具。在生产系统中,这些将调用实际 API。对于本教程,我们使用返回模拟数据的存根实现。我们在 3 个垂直领域定义了 7 个工具:GitHub(搜索代码、问题、PR)、Notion(搜索文档、获取页面)和 Slack(搜索消息、获取线程)。
from langchain.tools import tool


@tool
def search_code(query: str, repo: str = "main") -> str:
    """Search code in GitHub repositories."""
    return f"Found code matching '{query}' in {repo}: authentication middleware in src/auth.py"


@tool
def search_issues(query: str) -> str:
    """Search GitHub issues and pull requests."""
    return f"Found 3 issues matching '{query}': #142 (API auth docs), #89 (OAuth flow), #203 (token refresh)"


@tool
def search_prs(query: str) -> str:
    """Search pull requests for implementation details."""
    return f"PR #156 added JWT authentication, PR #178 updated OAuth scopes"


@tool
def search_notion(query: str) -> str:
    """Search Notion workspace for documentation."""
    return f"Found documentation: 'API Authentication Guide' - covers OAuth2 flow, API keys, and JWT tokens"


@tool
def get_page(page_id: str) -> str:
    """Get a specific Notion page by ID."""
    return f"Page content: Step-by-step authentication setup instructions"


@tool
def search_slack(query: str) -> str:
    """Search Slack messages and threads."""
    return f"Found discussion in #engineering: 'Use Bearer tokens for API auth, see docs for refresh flow'"


@tool
def get_thread(thread_id: str) -> str:
    """Get a specific Slack thread."""
    return f"Thread discusses best practices for API key rotation"

3. 创建专用智能体

为每个垂直领域创建一个智能体。每个智能体都有领域特定的工具和针对其知识源的优化提示。所有三个都遵循相同的模式——只有工具和系统提示不同。
from langchain.agents import create_agent
from langchain.chat_models import init_chat_model

model = init_chat_model("openai:gpt-4.1")

github_agent = create_agent(
    model,
    tools=[search_code, search_issues, search_prs],
    system_prompt=(
        "You are a GitHub expert. Answer questions about code, "
        "API references, and implementation details by searching "
        "repositories, issues, and pull requests."
    ),
)

notion_agent = create_agent(
    model,
    tools=[search_notion, get_page],
    system_prompt=(
        "You are a Notion expert. Answer questions about internal "
        "processes, policies, and team documentation by searching "
        "the organization's Notion workspace."
    ),
)

slack_agent = create_agent(
    model,
    tools=[search_slack, get_thread],
    system_prompt=(
        "You are a Slack expert. Answer questions by searching "
        "relevant threads and discussions where team members have "
        "shared knowledge and solutions."
    ),
)

4. 构建路由器工作流

现在使用 StateGraph 构建路由器工作流。工作流有四个主要步骤:
  1. 分类:分析查询并确定要调用的智能体及其子问题
  2. 路由:使用 Send 并行分发到选定的智能体
  3. 查询智能体:每个智能体接收简单的 AgentInput 并返回 AgentOutput
  4. 综合:将收集的结果组合成连贯的响应
from pydantic import BaseModel, Field
from langgraph.graph import StateGraph, START, END
from langgraph.types import Send

router_llm = init_chat_model("openai:gpt-4.1-mini")


# Define structured output schema for the classifier
class ClassificationResult(BaseModel):
    """Result of classifying a user query into agent-specific sub-questions."""
    classifications: list[Classification] = Field(
        description="List of agents to invoke with their targeted sub-questions"
    )


def classify_query(state: RouterState) -> dict:
    """Classify query and determine which agents to invoke."""
    structured_llm = router_llm.with_structured_output(ClassificationResult)

    result = structured_llm.invoke([
        {
            "role": "system",
            "content": """Analyze this query and determine which knowledge bases to consult.
For each relevant source, generate a targeted sub-question optimized for that source.

Available sources:
- github: Code, API references, implementation details, issues, pull requests
- notion: Internal documentation, processes, policies, team wikis
- slack: Team discussions, informal knowledge sharing, recent conversations

Return ONLY the sources that are relevant to the query. Each source should have
a targeted sub-question optimized for that specific knowledge domain.

Example for "How do I authenticate API requests?":
- github: "What authentication code exists? Search for auth middleware, JWT handling"
- notion: "What authentication documentation exists? Look for API auth guides"
(slack omitted because it's not relevant for this technical question)"""
        },
        {"role": "user", "content": state["query"]}
    ])

    return {"classifications": result.classifications}


def route_to_agents(state: RouterState) -> list[Send]:
    """Fan out to agents based on classifications."""
    return [
        Send(c["source"], {"query": c["query"]})
        for c in state["classifications"]
    ]


def query_github(state: AgentInput) -> dict:
    """Query the GitHub agent."""
    result = github_agent.invoke({
        "messages": [{"role": "user", "content": state["query"]}]
    })
    return {"results": [{"source": "github", "result": result["messages"][-1].content}]}


def query_notion(state: AgentInput) -> dict:
    """Query the Notion agent."""
    result = notion_agent.invoke({
        "messages": [{"role": "user", "content": state["query"]}]
    })
    return {"results": [{"source": "notion", "result": result["messages"][-1].content}]}


def query_slack(state: AgentInput) -> dict:
    """Query the Slack agent."""
    result = slack_agent.invoke({
        "messages": [{"role": "user", "content": state["query"]}]
    })
    return {"results": [{"source": "slack", "result": result["messages"][-1].content}]}


def synthesize_results(state: RouterState) -> dict:
    """Combine results from all agents into a coherent answer."""
    if not state["results"]:
        return {"final_answer": "No results found from any knowledge source."}

    # Format results for synthesis
    formatted = [
        f"**From {r['source'].title()}:**\n{r['result']}"
        for r in state["results"]
    ]

    synthesis_response = router_llm.invoke([
        {
            "role": "system",
            "content": f"""Synthesize these search results to answer the original question: "{state['query']}"

- Combine information from multiple sources without redundancy
- Highlight the most relevant and actionable information
- Note any discrepancies between sources
- Keep the response concise and well-organized"""
        },
        {"role": "user", "content": "\n\n".join(formatted)}
    ])

    return {"final_answer": synthesis_response.content}

5. 编译工作流

现在通过连接节点与边来组装工作流。关键是使用带有路由函数的 add_conditional_edges 以实现并行执行:
workflow = (
    StateGraph(RouterState)
    .add_node("classify", classify_query)
    .add_node("github", query_github)
    .add_node("notion", query_notion)
    .add_node("slack", query_slack)
    .add_node("synthesize", synthesize_results)
    .add_edge(START, "classify")
    .add_conditional_edges("classify", route_to_agents, ["github", "notion", "slack"])
    .add_edge("github", "synthesize")
    .add_edge("notion", "synthesize")
    .add_edge("slack", "synthesize")
    .add_edge("synthesize", END)
    .compile()
)
add_conditional_edges 调用通过 route_to_agents 函数将分类节点连接到智能体节点。当 route_to_agents 返回多个 Send 对象时,这些节点将并行执行。

6. 使用路由器

测试跨越多个知识域的查询:
result = workflow.invoke({
    "query": "How do I authenticate API requests?"
})

print("Original query:", result["query"])
print("\nClassifications:")
for c in result["classifications"]:
    print(f"  {c['source']}: {c['query']}")
print("\n" + "=" * 60 + "\n")
print("Final Answer:")
print(result["final_answer"])
预期输出:
Original query: How do I authenticate API requests?

Classifications:
  github: What authentication code exists? Search for auth middleware, JWT handling
  notion: What authentication documentation exists? Look for API auth guides

============================================================

Final Answer:
To authenticate API requests, you have several options:

1. **JWT Tokens**: The recommended approach for most use cases.
   Implementation details are in `src/auth.py` (PR #156).

2. **OAuth2 Flow**: For third-party integrations, follow the OAuth2
   flow documented in Notion's 'API Authentication Guide'.

3. **API Keys**: For server-to-server communication, use Bearer tokens
   in the Authorization header.

For token refresh handling, see issue #203 and PR #178 for the latest
OAuth scope updates.
路由器分析了查询,对其进行了分类以确定要调用的智能体(GitHub 和 Notion,但对于此技术问题不调用 Slack),并行查询了两个智能体,并将结果综合为连贯的答案。

7. 理解架构

路由器工作流遵循清晰的模式:

分类阶段

classify_query 函数使用 结构化输出 来分析用户的查询并确定要调用的智能体。这是路由智能所在的地方:
  • 使用 Pydantic 模型(Python)或 Zod 模式(JS)确保有效输出
  • 返回 Classification 对象列表,每个对象包含 source 和目标 query
  • 仅包含相关来源——无关来源将被省略
这种结构化方法比自由格式 JSON 解析更可靠,并使路由逻辑明确化。

使用 send 进行并行执行

route_to_agents 函数将分类映射到 Send 对象。每个 Send 指定目标节点和要传递的状态:
# Classifications: [{"source": "github", "query": "..."}, {"source": "notion", "query": "..."}]
# Becomes:
[Send("github", {"query": "..."}), Send("notion", {"query": "..."})]
# Both agents execute simultaneously, each receiving only the query it needs
每个智能体节点接收简单的 AgentInput,仅包含 query 字段——而不是完整的路由器状态。这保持了接口的清晰和明确。

使用归约器收集结果

智能体结果通过 归约器 流回主状态。每个智能体返回:
{"results": [{"source": "github", "result": "..."}]}
归约器(Python 中的 operator.add)连接这些列表,将所有并行结果收集到 state["results"] 中。

综合阶段

所有智能体完成后,synthesize_results 函数迭代收集的结果:
  • 等待所有并行分支完成(LangGraph 会自动处理此操作)
  • 引用原始查询以确保答案解决了用户提出的问题
  • 结合来自所有来源的信息而不冗余
部分结果:在本教程中,所有选定的智能体必须在综合之前完成。

8. 完整的可运行示例

以下是所有内容在一个可运行的脚本中:

9. 高级:有状态路由器

到目前为止,我们构建的路由器是 无状态的(每个请求独立处理,调用之间没有记忆)。对于多轮对话,您需要 有状态 的方法。

工具包装器方法

添加对话记忆的最简单方法是将无状态路由器包装为一个工具,供对话智能体调用:
from langgraph.checkpoint.memory import InMemorySaver


@tool
def search_knowledge_base(query: str) -> str:
    """Search across multiple knowledge sources (GitHub, Notion, Slack).

    Use this to find information about code, documentation, or team discussions.
    """
    result = workflow.invoke({"query": query})
    return result["final_answer"]


conversational_agent = create_agent(
    model,
    tools=[search_knowledge_base],
    system_prompt=(
        "You are a helpful assistant that answers questions about our organization. "
        "Use the search_knowledge_base tool to find information across our code, "
        "documentation, and team discussions."
    ),
    checkpointer=InMemorySaver(),
)
这种方法保持路由器无状态,而对话智能体处理记忆和上下文。用户可以拥有多轮对话,智能体将根据需要调用路由器工具。
config = {"configurable": {"thread_id": "user-123"}}

result = conversational_agent.invoke(
    {"messages": [{"role": "user", "content": "How do I authenticate API requests?"}]},
    config
)
print(result["messages"][-1].content)

result = conversational_agent.invoke(
    {"messages": [{"role": "user", "content": "What about rate limiting for those endpoints?"}]},
    config
)
print(result["messages"][-1].content)
工具包装器方法适用于大多数用例。它提供了清晰的分离:路由器处理多源查询,而对话智能体处理上下文和记忆。

完全持久化方法

如果您需要路由器本身维护状态——例如,在路由决策中使用之前的搜索结果——请使用 持久化 在路由器级别存储消息历史。
有状态路由器增加了复杂性。 当跨轮次路由到不同智能体时,如果智能体有不同的语气或提示,对话可能会感觉不一致。考虑使用 交接模式子智能体模式——两者都为具有不同智能体的多轮对话提供更清晰的语义。

10. 关键要点

当您有以下情况时,路由模式表现出色:
  • 不同的垂直领域:独立的知識域,每个都需要专用工具和提示
  • 并行查询需求:受益于同时查询多个来源的问题
  • 综合要求:来自多个来源的结果需要组合成连贯的响应
该模式有三个阶段:分解(分析查询并生成针对性的子问题)、路由(并行执行查询)和 综合(组合结果)。
何时使用路由模式当您有多个独立的知识来源、需要低延迟的并行查询并希望显式控制路由逻辑时,请使用路由模式。对于具有动态工具选择的更简单情况,请考虑 子智能体模式。对于智能体需要按顺序与用户交互的工作流,请考虑 交接

下一步