安装
安装 Mistral 官方库和 LangSmith:mistralai 提供了用于与 Mistral API 交互的 Mistral 客户端。
设置
设置你的 API 密钥 和项目名称:- 确保你已从 Mistral AI 账户 获取 Mistral API 密钥(将其设置为
MISTRAL_API_KEY)。 - 设置
LANGSMITH_TRACING=true并提供你的 LangSmith API 密钥(LANGSMITH_API_KEY)以激活追踪的自动记录。 - 指定一个
LANGSMITH_PROJECT名称以按项目组织追踪;如果未设置,追踪将进入默认项目(名为 “default”)。 LANGSMITH_TRACING标志必须为 true 才能记录任何追踪。
配置追踪
-
使用 LangSmith 检测 Mistral API 调用。在你的脚本中,创建一个 Mistral 客户端,并将调用包装在一个被追踪的函数中:
在此示例中,你使用 Mistral SDK 发送聊天补全请求(包含用户提示词)并获取模型的回答。
@traceable装饰器(来自 LangSmith Python SDK)包装了query_mistral函数,使得每次调用都会被记录为一个类型为"llm"的追踪运行。metadata={"ls_provider": "mistral", "ls_model_name": "mistral-medium-latest"}为追踪打上了提供者(Mistral)和模型名称的标签。 你也可以参考 LangSmith JavaScript SDK。 -
执行你的脚本以生成追踪。例如:
query_mistral("你好,最近怎么样?")调用将访问 Mistral API,并且由于@traceable/traceable包装器的存在,LangSmith 会将此调用的输入和输出记录为新的追踪。你将在控制台看到模型的响应,并在 LangSmith 中看到相应的运行记录。
在 LangSmith 中查看追踪
运行示例后,你可以在 LangSmith UI 中检查记录的追踪:- 打开 LangSmith UI 并登录你的账户。
- 选择你为此集成使用的项目(例如,在
LANGSMITH_PROJECT中设置的名称,如果未设置则使用默认项目)。 - 找到与你的 Mistral API 调用对应的追踪。它将通过函数名(
query_mistral)或自定义名称(如果提供)来标识。 - 点击追踪以打开它。你将能够检查模型的输入和输出,包括你发送的提示词消息和 Mistral 的响应,以及时间信息(延迟)和任何错误详情(如果调用失败)。
成本追踪
尽管 Mistral 模型是开源权重的,但使用托管的 Mistral API 可能会根据你的计划产生基于使用量的费用。 LangSmith 可以通过估算令牌使用量并应用特定于模型的定价,自动将成本与追踪的 LLM 调用关联起来。在追踪 Mistral API 调用时,LangSmith 使用记录的提示词和响应消息来计算令牌数量,并将成本信息附加到每个运行中。 要为 LLM 调用启用自动成本追踪,请参考 基于令牌数量自动追踪成本。 启用后,成本会直接显示在 LangSmith UI 中每个追踪的 Mistral 运行旁边,以便你监控使用情况并随时间比较实验。Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

