gemini-2.5-pro、gemini-2.5-flash 等。
它还提供一些非 Google 模型,例如 Anthropic 的 Claude。
这将帮助您开始使用 ChatVertexAI 聊天模型。有关所有 ChatVertexAI 功能和配置的详细文档,请参阅 API 参考。
此库将被弃用此库将被 ChatGoogle 库取代。
新实现应使用 ChatGoogle 库,
现有实现应考虑迁移。
概述
集成详情
| 类 | 包 | 可序列化 | PY 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|
ChatVertexAI | @langchain/google-vertexai | ✅ | ✅ |
模型特性
有关如何使用特定功能的指南,请参阅下表标题中的链接。 请注意,虽然支持对数概率,但 Gemini 对其使用有相当严格的限制。设置
LangChain.js 支持两种不同的身份验证方法,具体取决于您是在 Node.js 环境还是 Web 环境中运行。它还支持 Vertex AI Express Mode 使用的身份验证方法(使用任一包均可)。 要访问ChatVertexAI 模型,您需要在 Google Cloud Platform (GCP) 账户中设置 Google VertexAI,保存凭据文件,并安装 @langchain/google-vertexai 集成包。
凭据
前往您的 GCP 账户 并生成一个凭据文件。完成后,设置GOOGLE_APPLICATION_CREDENTIALS 环境变量:
GOOGLE_VERTEX_AI_WEB_CREDENTIALS 环境变量设置为 JSON 字符串化对象,并安装 @langchain/google-vertexai-web 包:
@langchain/google-vertexai 或 @langchain/google-vertexai-web 包。
然后,您可以前往 Express Mode API 密钥页面,并在 GOOGLE_API_KEY 环境变量中设置您的 API 密钥:
安装
LangChainChatVertexAI 集成位于 @langchain/google-vertexai 包中:
实例化
现在我们可以实例化模型对象并生成聊天补全:调用
使用 Google 搜索检索进行工具调用
可以调用带有 Google 搜索工具的模型,您可以使用它来基于真实世界信息进行内容生成,并减少幻觉。gemini-2.0-flash-exp 目前不支持基于真实世界信息进行内容生成。
您可以选择使用 Google 搜索或自定义数据存储来进行基于真实世界信息的内容生成。以下是两者的示例:
Google 搜索检索
使用 Google 搜索进行基于真实世界信息内容生成的示例:使用数据存储的 Google 搜索检索
首先,设置您的数据存储(这是一个示例数据存储的模式):| ID | 日期 | 队伍1 | 比分 | 队伍2 |
|---|---|---|---|---|
| 3001 | 2023-09-07 | 阿根廷 | 1 - 0 | 厄瓜多尔 |
| 3002 | 2023-09-12 | 委内瑞拉 | 1 - 0 | 巴拉圭 |
| 3003 | 2023-09-12 | 智利 | 0 - 0 | 哥伦比亚 |
| 3004 | 2023-09-12 | 秘鲁 | 0 - 1 | 巴西 |
| 3005 | 2024-10-15 | 阿根廷 | 6 - 0 | 玻利维亚 |
projectId 和 datastoreId 使用自己的变量)
上下文缓存
Vertex AI 提供上下文缓存功能,通过跨多个 API 请求存储和重用长消息内容块来帮助优化成本。当您有冗长的对话历史记录或消息片段频繁出现在交互中时,这尤其有用。 要使用此功能,请首先按照此官方指南创建上下文缓存。 创建缓存后,您可以将其 ID 作为运行时参数传入,如下所示:API 参考
有关所有ChatVertexAI 功能和配置的详细文档,请参阅 API 参考。
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

