Skip to main content
LangSmith 与 LangGraph(Python 和 JS)无缝集成,帮助您追踪智能体,无论您使用的是 LangChain 模块还是其他 SDK。

使用 LangChain

如果您在 LangGraph 中使用 LangChain 模块,只需设置几个环境变量即可启用追踪。 本指南将演示一个基础示例。有关配置的更多详细信息,请参阅 使用 LangChain 进行追踪 指南。

1. 安装

安装 LangGraph 库以及 Python 和 JS 的 OpenAI 集成(以下代码片段使用 OpenAI 集成)。 有关可用包的完整列表,请参阅 LangChain Python 文档LangChain JS 文档
pip install langchain_openai langgraph

2. 配置环境

export LANGSMITH_TRACING=true
export LANGSMITH_API_KEY=<your-api-key>
# 此示例使用 OpenAI,但您可以选择任何 LLM 提供商
export OPENAI_API_KEY=<your-openai-api-key>
# 对于关联到多个工作空间的 LangSmith API 密钥,设置 LANGSMITH_WORKSPACE_ID 环境变量以指定使用哪个工作空间。
export LANGSMITH_WORKSPACE_ID=<your-workspace-id>
如果您在非无服务器环境中使用 LangChain.js 和 LangSmith,我们还建议显式设置以下变量以减少延迟:export LANGCHAIN_CALLBACKS_BACKGROUND=true如果您在无服务器环境中,建议设置相反的值,以便在函数结束前完成追踪:export LANGCHAIN_CALLBACKS_BACKGROUND=false更多信息请参阅 此 LangChain.js 指南

3. 记录追踪

设置好环境后,您可以正常调用 LangChain 可运行对象。LangSmith 将推断出正确的追踪配置:
from typing import Literal
from langchain.messages import HumanMessage
from langchain_openai import ChatOpenAI
from langchain.tools import tool
from langgraph.prebuilt import ToolNode
from langgraph.graph import StateGraph, MessagesState

@tool
def search(query: str):
    """调用以浏览网页。"""
    if "sf" in query.lower() or "san francisco" in query.lower():
        return "天气是 60 华氏度,有雾。"
    return "天气是 90 华氏度,晴朗。"

tools = [search]
tool_node = ToolNode(tools)

model = ChatOpenAI(model="gpt-4.1", temperature=0).bind_tools(tools)

def should_continue(state: MessagesState) -> Literal["tools", "__end__"]:
    messages = state['messages']
    last_message = messages[-1]
    if last_message.tool_calls:
        return "tools"
    return "__end__"

def call_model(state: MessagesState):
    messages = state['messages']
    # 调用 `model` 将自动推断正确的追踪上下文
    response = model.invoke(messages)
    return {"messages": [response]}

workflow = StateGraph(MessagesState)
workflow.add_node("agent", call_model)
workflow.add_node("tools", tool_node)
workflow.add_edge("__start__", "agent")
workflow.add_conditional_edges(
    "agent",
    should_continue,
)
workflow.add_edge("tools", 'agent')

app = workflow.compile()

final_state = app.invoke(
    {"messages": [HumanMessage(content="what is the weather in sf")]},
    config={"configurable": {"thread_id": 42}}
)

final_state["messages"][-1].content

查看追踪

详细信息视图 点击追踪,并在右上角切换到 详细信息 视图。您在 LangSmith 中的追踪应 看起来像这样 消息视图 LangSmith UI 中的 消息 视图显示了用户与智能体之间的简化对话历史。此视图从顶层追踪(包括用户的初始请求、工具调用和智能体的最终响应)中提取消息,并以类似聊天的格式呈现。

不使用 LangChain

如果您在 LangGraph 中使用其他 SDK 或自定义函数,您将需要 适当地包装或装饰它们(在 Python 中使用 @traceable 装饰器,在 JS 中使用 traceable 函数,或类似 wrap_openai 的方法)。如果这样做,LangSmith 将自动嵌套来自这些包装方法的追踪。 以下是一个示例。您也可以查看此页面获取更多信息。

1. 安装

安装 LangGraph 库以及 Python 和 JS 的 OpenAI SDK(以下代码片段使用 OpenAI 集成)。
pip install openai langsmith langgraph

2. 配置环境

export LANGSMITH_TRACING=true
export LANGSMITH_API_KEY=<your-api-key>
# 此示例使用 OpenAI,但您可以选择任何 LLM 提供商
export OPENAI_API_KEY=<your-openai-api-key>
如果您在非无服务器环境中使用 LangChain.js 和 LangSmith,我们还建议显式设置以下变量以减少延迟:export LANGCHAIN_CALLBACKS_BACKGROUND=true如果您在无服务器环境中,建议设置相反的值,以便在函数结束前完成追踪:export LANGCHAIN_CALLBACKS_BACKGROUND=false更多信息请参阅 此 LangChain.js 指南

3. 记录追踪

设置好环境后,包装或装饰您想要追踪的自定义函数/SDK。LangSmith 随后将推断出正确的追踪配置:
import json
import openai
import operator
from langsmith import traceable
from langsmith.wrappers import wrap_openai
from typing import Annotated, Literal, TypedDict
from langgraph.graph import StateGraph

class State(TypedDict):
    messages: Annotated[list, operator.add]

tool_schema = {
    "type": "function",
    "function": {
        "name": "search",
        "description": "调用以浏览网页。",
        "parameters": {
            "type": "object",
            "properties": {"query": {"type": "string"}},
            "required": ["query"],
        },
    },
}

# 装饰工具函数将自动使用正确的上下文进行追踪
@traceable(run_type="tool", name="Search Tool")
def search(query: str):
    """调用以浏览网页。"""
    if "sf" in query.lower() or "san francisco" in query.lower():
        return "天气是 60 华氏度,有雾。"
    return "天气是 90 华氏度,晴朗。"

tools = [search]

def call_tools(state):
    function_name_to_function = {"search": search}
    messages = state["messages"]
    tool_call = messages[-1]["tool_calls"][0]
    function_name = tool_call["function"]["name"]
    function_arguments = tool_call["function"]["arguments"]
    arguments = json.loads(function_arguments)
    function_response = function_name_to_function[function_name](**arguments)
    tool_message = {
        "tool_call_id": tool_call["id"],
        "role": "tool",
        "name": function_name,
        "content": function_response,
    }
    return {"messages": [tool_message]}

wrapped_client = wrap_openai(openai.Client())

def should_continue(state: State) -> Literal["tools", "__end__"]:
    messages = state["messages"]
    last_message = messages[-1]
    if last_message["tool_calls"]:
        return "tools"
    return "__end__"

def call_model(state: State):
    messages = state["messages"]
    # 调用包装后的客户端将自动推断正确的追踪上下文
    response = wrapped_client.chat.completions.create(
        messages=messages, model="gpt-4.1-mini", tools=[tool_schema]
    )
    raw_tool_calls = response.choices[0].message.tool_calls
    tool_calls = [tool_call.to_dict() for tool_call in raw_tool_calls] if raw_tool_calls else []
    response_message = {
        "role": "assistant",
        "content": response.choices[0].message.content,
        "tool_calls": tool_calls,
    }
    return {"messages": [response_message]}

workflow = StateGraph(State)
workflow.add_node("agent", call_model)
workflow.add_node("tools", call_tools)
workflow.add_edge("__start__", "agent")
workflow.add_conditional_edges(
    "agent",
    should_continue,
)
workflow.add_edge("tools", 'agent')

app = workflow.compile()

final_state = app.invoke(
    {"messages": [{"role": "user", "content": "what is the weather in sf"}]}
)

final_state["messages"][-1]["content"]

查看追踪

详细信息视图 点击追踪,并在右上角切换到 详细信息 视图。您在 LangSmith 中的追踪应 看起来像这样 消息视图 LangSmith UI 中的 消息 视图显示了用户与智能体之间的简化对话历史。此视图从顶层追踪(包括用户的初始请求、工具调用和智能体的最终响应)中提取消息,并以类似聊天的格式呈现。