使用 LangChain
如果您在 LangGraph 中使用 LangChain 模块,只需设置几个环境变量即可启用追踪。 本指南将演示一个基础示例。有关配置的更多详细信息,请参阅 使用 LangChain 进行追踪 指南。1. 安装
安装 LangGraph 库以及 Python 和 JS 的 OpenAI 集成(以下代码片段使用 OpenAI 集成)。 有关可用包的完整列表,请参阅 LangChain Python 文档 和 LangChain JS 文档。2. 配置环境
如果您在非无服务器环境中使用 LangChain.js 和 LangSmith,我们还建议显式设置以下变量以减少延迟:
export LANGCHAIN_CALLBACKS_BACKGROUND=true如果您在无服务器环境中,建议设置相反的值,以便在函数结束前完成追踪:export LANGCHAIN_CALLBACKS_BACKGROUND=false更多信息请参阅 此 LangChain.js 指南。3. 记录追踪
设置好环境后,您可以正常调用 LangChain 可运行对象。LangSmith 将推断出正确的追踪配置:查看追踪
详细信息视图 点击追踪,并在右上角切换到 详细信息 视图。您在 LangSmith 中的追踪应 看起来像这样。 消息视图 LangSmith UI 中的 消息 视图显示了用户与智能体之间的简化对话历史。此视图从顶层追踪(包括用户的初始请求、工具调用和智能体的最终响应)中提取消息,并以类似聊天的格式呈现。不使用 LangChain
如果您在 LangGraph 中使用其他 SDK 或自定义函数,您将需要 适当地包装或装饰它们(在 Python 中使用@traceable 装饰器,在 JS 中使用 traceable 函数,或类似 wrap_openai 的方法)。如果这样做,LangSmith 将自动嵌套来自这些包装方法的追踪。
以下是一个示例。您也可以查看此页面获取更多信息。
1. 安装
安装 LangGraph 库以及 Python 和 JS 的 OpenAI SDK(以下代码片段使用 OpenAI 集成)。2. 配置环境
如果您在非无服务器环境中使用 LangChain.js 和 LangSmith,我们还建议显式设置以下变量以减少延迟:
export LANGCHAIN_CALLBACKS_BACKGROUND=true如果您在无服务器环境中,建议设置相反的值,以便在函数结束前完成追踪:export LANGCHAIN_CALLBACKS_BACKGROUND=false更多信息请参阅 此 LangChain.js 指南。3. 记录追踪
设置好环境后,包装或装饰您想要追踪的自定义函数/SDK。LangSmith 随后将推断出正确的追踪配置:查看追踪
详细信息视图 点击追踪,并在右上角切换到 详细信息 视图。您在 LangSmith 中的追踪应 看起来像这样。 消息视图 LangSmith UI 中的 消息 视图显示了用户与智能体之间的简化对话历史。此视图从顶层追踪(包括用户的初始请求、工具调用和智能体的最终响应)中提取消息,并以类似聊天的格式呈现。Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

