Skip to main content
本文将帮助您开始使用 OpenRouter 聊天模型。OpenRouter 是一个统一的 API,通过单一端点提供对多个提供商(OpenAI、Anthropic、Google、Meta 等)模型的访问。
API 参考有关所有功能和配置选项的详细文档,请访问 ChatOpenRouter API 参考
有关可用模型的完整列表,请访问 OpenRouter 模型页面

概述

集成详情

可序列化Python 支持下载量版本
ChatOpenRouter@langchain/openrouterNPM - DownloadsNPM - Version

模型特性

设置

要通过 OpenRouter 访问模型,您需要创建一个 OpenRouter 账户,获取 API 密钥,并安装 @langchain/openrouter 集成包。

凭证

前往 OpenRouter 密钥页面 注册并生成 API 密钥。完成后,设置 OPENROUTER_API_KEY 环境变量:
export OPENROUTER_API_KEY="your-api-key"
要启用模型调用的自动追踪,请设置您的 LangSmith API 密钥:
# export LANGSMITH_TRACING="true"
# export LANGSMITH_API_KEY="your-api-key"

安装

LangChain OpenRouter 集成位于 @langchain/openrouter 包中:
npm install @langchain/openrouter @langchain/core

实例化

现在我们可以实例化模型对象并生成聊天补全:
import { ChatOpenRouter } from "@langchain/openrouter";

const model = new ChatOpenRouter({
  model: "anthropic/claude-sonnet-4.5",
  temperature: 0,
  maxTokens: 1024,
  // 其他参数...
});

调用

const aiMsg = await model.invoke([
  {
    role: "system",
    content:
      "你是一个将英语翻译成法语的助手。翻译用户的句子。",
  },
  {
    role: "user",
    content: "I love programming.",
  },
]);
console.log(aiMsg.content);
J'adore la programmation.

流式传输

const stream = await model.stream("写一首关于大海的短诗。");
for await (const chunk of stream) {
  process.stdout.write(typeof chunk.content === "string" ? chunk.content : "");
}

工具调用

OpenRouter 使用与 OpenAI 兼容的工具调用格式。您可以描述工具及其参数,让模型返回一个包含要调用的工具及其输入参数的 JSON 对象。

绑定工具

使用 ChatOpenRouter.bindTools,您可以将 Zod 模式、LangChain 工具或原始函数定义作为工具传递给模型。在底层,这些会被转换为 OpenAI 工具模式,并在每次模型调用时传入。
import { ChatOpenRouter } from "@langchain/openrouter";
import { tool } from "@langchain/core/tools";
import { z } from "zod";

const getWeather = tool(async ({ location }) => `Sunny in ${location}`, {
  name: "get_weather",
  description: "获取指定地点的当前天气",
  schema: z.object({
    location: z
      .string()
      .describe("城市和州,例如:San Francisco, CA"),
  }),
});

const modelWithTools = new ChatOpenRouter({
  model: "openai/gpt-4o",
}).bindTools([getWeather]);

const aiMsg = await modelWithTools.invoke(
  "旧金山的天气怎么样?"
);
console.log(aiMsg.tool_calls);
[
  {
    name: 'get_weather',
    args: { location: 'San Francisco, CA' },
    id: 'call_abc123',
    type: 'tool_call'
  }
]

严格模式

传递 strict: true 以确保模型输出与工具定义中提供的 JSON 模式完全匹配:
const modelWithStrictTools = new ChatOpenRouter({
  model: "openai/gpt-4o",
}).bindTools([getWeather], { strict: true });
有关绑定工具和工具调用输出的更多信息,请参阅 工具调用 文档。

结构化输出

ChatOpenRouter 通过 .withStructuredOutput() 方法支持结构化输出。提取策略根据模型能力自动选择:
  • jsonSchema — 原生 JSON 模式响应格式(当模型支持时使用)
  • functionCalling — 将模式包装为工具调用(默认回退)
  • jsonMode — 要求模型以 JSON 格式响应,没有严格的模式约束
当多模型路由激活时(models 列表或 route: "fallback"),该方法总是回退到 functionCalling,因为实际后端模型的能力在请求时是未知的。
import { ChatOpenRouter } from "@langchain/openrouter";
import { z } from "zod";

const model = new ChatOpenRouter({ model: "openai/gpt-4.1" });

const movieSchema = z.object({
  title: z.string().describe("电影标题"),
  year: z.number().describe("电影上映年份"),
  director: z.string().describe("电影导演"),
  rating: z.number().describe("电影的评分(满分10分)"),
});

const structuredModel = model.withStructuredOutput(movieSchema, {
  name: "movie",
  method: "jsonSchema",
});
const response = await structuredModel.invoke(
  "提供电影《盗梦空间》的详细信息"
);
console.log(response);
{
  title: 'Inception',
  year: 2010,
  director: 'Christopher Nolan',
  rating: 8.8
}
您可以在 jsonSchemafunctionCalling 方法中传递 strict: true 以强制完全遵循模式:
const strictModel = model.withStructuredOutput(movieSchema, {
  name: "movie",
  method: "jsonSchema",
  strict: true,
});

多模态输入

OpenRouter 支持接受多模态输入的模型进行 多模态输入。可用的模态取决于您选择的模型 — 请查看 OpenRouter 模型页面 了解详情。
并非所有模型都支持所有模态。请查看 OpenRouter 模型页面 了解特定模型的支持情况。

图像输入

使用列表内容格式提供图像输入以及文本。
import { ChatOpenRouter } from "@langchain/openrouter";
import { HumanMessage } from "@langchain/core/messages";

const model = new ChatOpenRouter({ model: "openai/gpt-4o" });

const message = new HumanMessage({
  content: [
    { type: "text", text: "描述这张图片。" },
    {
      type: "image_url",
      image_url: {
        url: "https://upload.wikimedia.org/wikipedia/commons/thumb/d/dd/Gfp-wisconsin-madison-the-nature-boardwalk.jpg/2560px-Gfp-wisconsin-madison-the-nature-boardwalk.jpg",
      },
    },
  ],
});
const response = await model.invoke([message]);

令牌使用量元数据

调用后,令牌使用量信息可在响应的 usage_metadata 属性中找到:
const aiMsg = await model.invoke("讲个笑话。");
console.log(aiMsg.usage_metadata);
{
  input_tokens: 12,
  output_tokens: 25,
  total_tokens: 37
}
当底层提供商在其响应中包含详细的令牌细分时,它们会自动显示:
  • output_token_details.reasoning — 用于内部思维链推理的令牌
  • input_token_details.cache_read — 从提示缓存中提供的输入令牌
流式传输时,从最终块中聚合令牌使用量:
import { AIMessageChunk } from "@langchain/core/messages";
import { concat } from "@langchain/core/utils/stream";

const stream = await model.stream("讲个笑话。");
let finalMsg: AIMessageChunk | undefined;
for await (const chunk of stream) {
  finalMsg = finalMsg ? concat(finalMsg, chunk) : chunk;
}
console.log(finalMsg?.usage_metadata);

提供商路由

OpenRouter 上的许多模型由多个提供商提供服务。provider 参数让您可以控制哪些提供商处理您的请求以及如何选择它们。

排序和筛选提供商

使用 order 设置首选提供商序列。OpenRouter 按顺序尝试每个提供商,如果某个提供商不可用,则回退到下一个:
const model = new ChatOpenRouter({
  model: "anthropic/claude-sonnet-4.5",
  provider: {
    order: ["Anthropic", "Google"],
    allow_fallbacks: true,
  },
});
要仅将请求限制在特定提供商,请使用 only。要排除某些提供商,请使用 ignore
const onlyModel = new ChatOpenRouter({
  model: "openai/gpt-4o",
  provider: { only: ["OpenAI", "Azure"] },
});

const ignoreModel = new ChatOpenRouter({
  model: "meta-llama/llama-4-maverick",
  provider: { ignore: ["DeepInfra"] },
});

按成本、速度或延迟排序

默认情况下,OpenRouter 在提供商之间进行负载均衡,优先考虑较低成本。使用 sort 更改优先级:
const fastModel = new ChatOpenRouter({
  model: "openai/gpt-4o",
  provider: { sort: "throughput" },
});

const lowLatencyModel = new ChatOpenRouter({
  model: "openai/gpt-4o",
  provider: { sort: "latency" },
});

数据收集策略

如果您的用例要求提供商不存储或训练您的数据,请将 data_collection 设置为 "deny"
const model = new ChatOpenRouter({
  model: "anthropic/claude-sonnet-4.5",
  provider: { data_collection: "deny" },
});

按量化筛选

对于开放权重模型,您可以限制路由到特定的精度级别:
const model = new ChatOpenRouter({
  model: "meta-llama/llama-4-maverick",
  provider: { quantizations: ["fp16", "bf16"] },
});

组合选项

提供商选项可以组合使用:
const model = new ChatOpenRouter({
  model: "openai/gpt-4o",
  provider: {
    order: ["OpenAI", "Azure"],
    allow_fallbacks: false,
    require_parameters: true,
    data_collection: "deny",
  },
});
有关完整选项列表,请参阅 OpenRouter 提供商路由文档

多模型路由

OpenRouter 支持跨多个模型路由请求。传递一个 models 数组和一个可选的 route 策略:
const model = new ChatOpenRouter({
  model: "openai/gpt-4o",
  models: ["openai/gpt-4o", "anthropic/claude-sonnet-4.5"],
  route: "fallback",
});

插件

OpenRouter 支持扩展模型功能的 插件。通过 plugins 参数传递插件配置:
const model = new ChatOpenRouter({
  model: "openai/gpt-4o",
  plugins: [
    { id: "web", max_results: 5 },
  ],
});
可用插件包括 web(网络搜索)、file-parser(PDF 解析)、moderationauto-routerresponse-healing

应用归属

OpenRouter 通过 HTTP 标头支持应用归属。通过构造函数参数设置这些:
const model = new ChatOpenRouter({
  model: "anthropic/claude-sonnet-4.5",
  siteUrl: "https://myapp.com",
  siteName: "My App",
});

API 参考

有关 ChatOpenRouter 所有功能和配置的详细文档,请访问 ChatOpenRouter API 参考 有关 OpenRouter 平台、模型和功能的更多信息,请参阅 OpenRouter 文档