Skip to main content
在本地使用 LangChain 构建智能体时,可视化智能体的内部运行过程、实时与其交互并在问题发生时进行调试会非常有帮助。LangSmith Studio 是一个免费的视觉界面,用于从本地机器开发和测试你的 LangChain 智能体。 Studio 会连接到本地运行的智能体,向你展示智能体执行的每个步骤:发送给模型的提示、工具调用及其结果,以及最终输出。你可以测试不同的输入、检查中间状态,并迭代优化智能体的行为,而无需编写额外的代码或进行部署。 本页介绍如何为你的本地 LangChain 智能体设置 Studio。

前提条件

开始之前,请确保你已满足以下条件:
  • 一个 LangSmith 账户:在 smith.langchain.com 免费注册或登录。
  • 一个 LangSmith API 密钥:请按照创建 API 密钥指南操作。
  • 如果你不希望数据被追踪到 LangSmith,请在应用程序的 .env 文件中设置 LANGSMITH_TRACING=false。禁用追踪后,数据不会离开你的本地服务器。

设置本地智能体服务器

1. 安装 LangGraph CLI

LangGraph CLI 提供了一个本地开发服务器(也称为智能体服务器),用于将你的智能体连接到 Studio。
npx @langchain/langgraph-cli

2. 准备你的智能体

如果你已经有一个 LangChain 智能体,可以直接使用它。以下示例使用一个简单的邮件智能体:
agent.ts
import { createAgent } from "@langchain/langgraph";

function sendEmail(to: string, subject: string, body: string): string {
    // 发送邮件
    const email = {
        to: to,
        subject: subject,
        body: body
    };
    // ... 邮件发送逻辑

    return `邮件已发送至 ${to}`;
}

const agent = createAgent({
    model: "gpt-4.1",
    tools: [sendEmail],
    systemPrompt: "你是一个邮件助手。请始终使用 sendEmail 工具。",
});

export { agent };

3. 环境变量

Studio 需要一个 LangSmith API 密钥来连接你的本地智能体。在项目根目录下创建一个 .env 文件,并添加从 LangSmith 获取的 API 密钥。
请确保你的 .env 文件不会被提交到版本控制系统(如 Git)。
.env
LANGSMITH_API_KEY=lsv2...

4. 创建 LangGraph 配置文件

LangGraph CLI 使用配置文件来定位你的智能体并管理依赖项。在你的应用目录中创建一个 langgraph.json 文件:
langgraph.json
{
  "dependencies": ["."],
  "graphs": {
    "agent": "./src/agent.ts:agent"
  },
  "env": ".env"
}
createAgent 函数会自动返回一个已编译的 LangGraph 图,这正是配置文件中 graphs 键所期望的内容。
有关配置文件中 JSON 对象每个键的详细说明,请参阅 LangGraph 配置文件参考
此时,项目结构将如下所示:
my-app/
├── src
   └── agent.ts
├── .env
├── package.json
└── langgraph.json

5. 安装依赖项

yarn install

6. 在 Studio 中查看你的智能体

启动开发服务器,将你的智能体连接到 Studio:
npx @langchain/langgraph-cli dev
Safari 浏览器会阻止到 Studio 的 localhost 连接。要解决此问题,请使用 --tunnel 参数运行上述命令,通过安全隧道访问 Studio。你需要在 Studio UI 中点击 Connect to a local server 手动将隧道 URL 添加到允许的来源中。具体步骤请参阅故障排除指南
服务器运行后,你的智能体既可以通过 API 在 http://127.0.0.1:2024 访问,也可以通过 Studio UI 在 https://smith.langchain.com/studio/?baseUrl=http://127.0.0.1:2024 访问:
Studio UI 中的智能体视图
当 Studio 连接到你的本地智能体后,你可以快速迭代优化智能体的行为。运行测试输入,在 LangSmith 中检查完整的执行轨迹,包括提示、工具参数、返回值以及令牌/延迟指标。当出现问题时,Studio 会捕获异常及其周围的状态,帮助你理解发生了什么。 开发服务器支持热重载——在你的代码中修改提示或工具签名,Studio 会立即反映这些更改。你可以从任何步骤重新运行对话线程来测试更改,而无需从头开始。这种工作流程适用于从简单的单工具智能体到复杂的多节点图。 有关如何运行 Studio 的更多信息,请参阅 LangSmith 文档中的以下指南:

视频指南