Skip to main content
langchainRunnable 对象(例如聊天模型、检索器、链等)可以直接传入 evaluate() / aevaluate() 进行评估。

设置

让我们定义一个简单的链来进行评估。首先,安装所有必需的包:
pip install -U langsmith langchain[openai]
现在定义一个链:
from langchain.chat_models import init_chat_model
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser

instructions = (
    "请检查下面的用户查询,判断其是否包含任何形式的毒性行为,例如侮辱、威胁或高度负面的评论。"
    "如果包含,请回复 'Toxic';如果不包含,请回复 'Not toxic'。"
)

prompt = ChatPromptTemplate(
    [("system", instructions), ("user", "{text}")],
)

model = init_chat_model("gpt-4.1")
chain = prompt | model | StrOutputParser()

评估

要评估我们的链,我们可以直接将其传递给 evaluate() / aevaluate() 方法。请注意,链的输入变量必须与示例输入的键匹配。在本例中,示例输入应具有 {"text": "..."} 的形式。
from langsmith import aevaluate, Client

client = Client()

# 克隆一个带有毒性标签的文本数据集。
# 每个示例输入都有一个 "text" 键,每个输出都有一个 "label" 键。
dataset = client.clone_public_dataset(
    "https://smith.langchain.com/public/3d6831e6-1680-4c88-94df-618c8e01fc55/d"
)

def correct(outputs: dict, reference_outputs: dict) -> bool:
    # 由于我们的链输出的是字符串而非字典,该字符串
    # 会被存储在 outputs 字典的默认 "output" 键下:
    actual = outputs["output"]
    expected = reference_outputs["label"]
    return actual == expected

results = await aevaluate(
    chain,
    data=dataset,
    evaluators=[correct],
    experiment_prefix="gpt-4.1, baseline",
)
每个输出都会适当地追踪可运行对象。 Runnable Evaluation

相关