转换类型
| 转换类型 | 目标类型 | 功能说明 |
|---|---|---|
remove_system_messages | Array[Message] | 过滤消息列表,移除所有系统消息。 |
convert_to_openai_message | Message Array[Message] | 使用 langchain 的 convert_to_openai_messages 将任何传入数据从 LangChain 的内部序列化格式转换为 OpenAI 的标准消息格式。如果目标字段标记为必填,并且在输入时未找到匹配的消息,它将尝试从几种常见的 LangSmith 追踪格式中提取消息(或消息列表)(例如,任何追踪的 LangChain BaseChatModel 运行或来自 LangSmith OpenAI 包装器 的追踪运行),并移除包含该消息的原始键。 |
convert_to_openai_tool | Array[Tool] 仅适用于输入字典中的顶层字段。 | 使用 langchain 的 convert_to_openai_tool 将任何传入数据转换为 OpenAI 标准工具格式。如果存在且未在指定键找到工具定义,将从运行的调用参数中提取工具定义。这很有用,因为 LangChain 聊天模型将工具定义追踪到运行的 extra.invocation_params 字段,而不是输入中。 |
remove_extra_fields | Object | 移除此目标对象模式中未定义的任何字段。 |
聊天模型预置模式
转换的主要用例是简化将生产追踪数据收集到数据集的过程,并标准化为跨模型提供商的格式,以便在下游的评估/少样本提示等场景中使用。 为了简化最终用户的转换设置,LangSmith 提供了一个预定义模式,它将执行以下操作:- 从您收集的运行中提取消息,并将其转换为 OpenAI 标准格式,使其兼容所有 LangChain ChatModels 和大多数模型提供商的 SDK,以便进行下游评估和实验。
- 提取您的 LLM 使用的任何工具,并将其添加到示例的输入中,以便在下游评估中实现可重现性。
希望迭代系统提示的用户在使用我们的聊天模型模式时,通常还会在其输入消息上添加“移除系统消息”转换,这将防止您将系统提示保存到数据集中。
兼容性
LLM 运行收集模式旨在收集来自 LangChainBaseChatModel 运行或 LangSmith OpenAI 包装器 追踪的运行的数据。
如果您追踪的 LLM 运行不兼容,请通过 support.langchain.com 联系支持人员,我们可以扩展支持。
如果您想对其他类型的运行应用转换(例如,用消息历史表示 LangGraph 状态),请直接定义您的模式并手动添加相关转换。
启用
当从追踪项目或标注队列将运行添加到数据集时,如果它具有 LLM 运行类型,我们将默认应用聊天模型模式。 有关新数据集的启用,请参阅我们的 数据集管理操作指南。规范
有关预置模式的完整 API 规范,请参阅以下部分:输入模式
输出模式
转换
转换配置如下所示:Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

