Skip to main content
追踪项目和实验在我们的后端使用相同的基础数据结构,称为“会话”。您可能会在我们的文档中看到这些术语交替使用,但它们都指向相同的基础数据结构。我们正在努力统一文档和 API 中的术语。
当您使用 Python 或 TypeScript SDK 的 evaluate 运行实验时,可以通过 read_project/readProject 方法获取实验的性能指标。 实验详情的载荷包含以下值:
{
  "start_time": "2024-06-06T01:02:51.299960",
  "end_time": "2024-06-06T01:03:04.557530+00:00",
  "extra": {
    "metadata": {
      "git": {
        "tags": null,
        "dirty": true,
        "branch": "ankush/agent-eval",
        "commit": "...",
        "repo_name": "...",
        "remote_url": "...",
        "author_name": "Ankush Gola",
        "commit_time": "...",
        "author_email": "..."
      },
      "revision_id": null,
      "dataset_splits": ["base"],
      "dataset_version": "2024-06-05T04:57:01.535578+00:00",
      "num_repetitions": 3
    }
  },
  "name": "SQL Database Agent-ae9ad229",
  "description": null,
  "default_dataset_id": null,
  "reference_dataset_id": "...",
  "id": "...",
  "run_count": 9,
  "latency_p50": 7.896,
  "latency_p99": 13.09332,
  "first_token_p50": null,
  "first_token_p99": null,
  "total_tokens": 35573,
  "prompt_tokens": 32711,
  "completion_tokens": 2862,
  "total_cost": 0.206485,
  "prompt_cost": 0.163555,
  "completion_cost": 0.04293,
  "tenant_id": "...",
  "last_run_start_time": "2024-06-06T01:02:51.366397",
  "last_run_start_time_live": null,
  "feedback_stats": {
    "cot contextual accuracy": {
      "n": 9,
      "avg": 0.6666666666666666,
      "values": {
        "CORRECT": 6,
        "INCORRECT": 3
      }
    }
  },
  "session_feedback_stats": {},
  "run_facets": [],
  "error_rate": 0,
  "streaming_rate": 0,
  "test_run_number": 11
}
您可以从中提取以下性能指标:
  • latency_p50:第50百分位延迟(秒)。
  • latency_p99:第99百分位延迟(秒)。
  • total_tokens:使用的总令牌数。
  • prompt_tokens:使用的提示令牌数。
  • completion_tokens:使用的补全令牌数。
  • total_cost:实验的总成本。
  • prompt_cost:提示令牌的成本。
  • completion_cost:补全令牌的成本。
  • feedback_stats:实验的反馈统计。
  • error_rate:实验的错误率。
  • first_token_p50:生成第一个令牌的第50百分位延迟(如果使用流式传输)。
  • first_token_p99:生成第一个令牌的第99百分位延迟(如果使用流式传输)。
以下是使用 Python 和 TypeScript SDK 获取实验性能指标的示例。 首先,作为前提条件,我们将创建一个简单的数据集。这里我们仅用 Python 演示,但您也可以在 TypeScript 中实现相同操作。更多详情请查看评估的操作指南
from langsmith import Client

client = Client()

# 创建数据集
dataset_name = "HelloDataset"
dataset = client.create_dataset(dataset_name=dataset_name)

examples = [
    {
        "inputs": {"input": "Harrison"},
        "outputs": {"expected": "Hello Harrison"},
    },
    {
        "inputs": {"input": "Ankush"},
        "outputs": {"expected": "Hello Ankush"},
    },
]

client.create_examples(dataset_id=dataset.id, examples=examples)
接下来,我们将创建一个实验,从 evaluate 的结果中获取实验名称,然后获取实验的性能指标。
from langsmith.schemas import Example, Run
dataset_name = "HelloDataset"

def foo_label(root_run: Run, example: Example) -> dict:
    return {"score": 1, "key": "foo"}

from langsmith import evaluate

results = evaluate(
    lambda inputs: "Hello " + inputs["input"],
    data=dataset_name,
    evaluators=[foo_label],
    experiment_prefix="Hello",
)

resp = client.read_project(project_name=results.experiment_name, include_stats=True)
print(resp.model_dump_json(indent=2))