ChatNVIDIA 功能和配置的详细文档,请参阅 API 参考。
概述
langchain-nvidia-ai-endpoints 包包含 LangChain 与由 NVIDIA AI Foundation Models 提供支持并在 NVIDIA API Catalog 上托管的聊天模型和嵌入模型的集成。
一个强大的起点是 Nemotron,这是 NVIDIA 专为智能体 AI 构建的开放模型系列。Nemotron 模型采用混合 Mamba-Transformer 专家混合架构,提供领先的准确性,吞吐量比同类模型高出 3 倍,上下文窗口高达 1M 令牌。模型权重、训练数据和实现配方均在 NVIDIA 开放模型许可下公开发布。
NVIDIA AI Foundation 模型在 NIM 微服务上运行:这些容器镜像通过 NVIDIA NGC Catalog 分发,暴露标准的 OpenAI 兼容 API,并使用 TensorRT-LLM 进行优化以实现最大吞吐量。它们可以通过托管的 NVIDIA API Catalog 访问,也可以使用 NVIDIA AI Enterprise 许可证在本地部署。
本页介绍如何使用 LangChain 通过 ChatNVIDIA 与 NVIDIA 模型交互,包括 Nemotron 和 API Catalog 中的其他模型。
有关通过此 API 访问嵌入模型的更多信息,请参阅 NVIDIAEmbeddings 文档。
集成详情
| 类 | 包 | 可序列化 | JS 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|
ChatNVIDIA | langchain-nvidia-ai-endpoints | beta | ❌ |
模型特性
安装包
访问 NVIDIA API Catalog
要获取 NVIDIA API Catalog 的访问权限,请执行以下操作:- 在 NVIDIA API Catalog 上创建一个免费账户并登录。
- 点击您的个人资料图标,然后点击 API Keys。API Keys 页面将出现。
- 点击 Generate API Key。Generate API Key 窗口将出现。
- 点击 Generate Key。您应该会看到 API Key Granted,并且您的密钥会出现。
- 复制并保存密钥为
NVIDIA_API_KEY。 - 要验证您的密钥,请使用以下代码。
实例化
现在我们可以访问 NVIDIA API Catalog 中的模型。Nemotron 模型是智能体和推理工作负载的推荐起点:调用
使用 NVIDIA NIM 微服务自托管
当您准备好部署 AI 应用程序时,可以使用 NVIDIA NIM 自托管模型。更多信息,请参阅 NVIDIA NIM 微服务。 以下代码连接到本地托管的 NIM 微服务。流式传输、批处理和异步
这些模型原生支持流式传输,并且与所有 LangChain LLM 一样,它们暴露了一个批处理方法以处理并发请求,以及用于 invoke、stream 和 batch 的异步方法。以下是几个示例。支持的模型
查询available_models 仍将为您提供 API 凭证提供的所有其他模型。
playground_ 前缀是可选的。
模型类型
上述所有模型都受支持,并且可以通过ChatNVIDIA 访问。
某些模型类型支持独特的提示技术和聊天消息。我们将在下面回顾一些重要的类型。
要了解有关特定模型的更多信息,请导航至 AI Foundation 模型的 API 部分,如此处链接所示。
用于智能体 AI 的 Nemotron 模型
Nemotron 是 NVIDIA 专为智能体工作流构建的开放模型系列。主要特点:- 高效性:混合 Mamba-Transformer MoE 架构提供比同类密集模型高出 3 倍的吞吐量
- 长上下文:原生支持高达 1M 令牌的上下文窗口
- 智能体推理:专门针对多步规划、工具使用和自主软件工程任务进行训练
- 开放性:权重、训练配方和精选数据集在 NVIDIA 开放模型许可下发布
通用聊天
诸如meta/llama3-8b-instruct 和 mistralai/mixtral-8x22b-instruct-v0.1 等模型是优秀的通用模型,您可以将其用于任何 LangChain 聊天消息。示例如下。
代码生成
这些模型接受与常规聊天模型相同的参数和输入结构,但它们在代码生成和结构化代码任务上往往表现更好。meta/codellama-70b 就是一个例子。
多模态
NVIDIA 还支持多模态输入,这意味着您可以提供图像和文本供模型推理。支持多模态输入的示例模型是nvidia/neva-22b。
以下是使用示例:
将图像作为 URL 传递
将图像作为 base64 编码字符串传递
目前,客户端会进行一些额外的处理以支持像上面这样的大图像。但对于较小的图像(并且为了更好地说明底层过程),我们可以直接传入图像,如下所示:直接在字符串中
NVIDIA API 独特地接受内嵌在<img/> HTML 标签中的 base64 图像。虽然这与其他 LLM 不互操作,但您可以直接相应地提示模型。
在 RunnableWithMessageHistory 中的使用示例
与任何其他集成一样,ChatNVIDIA 可以很好地支持聊天实用程序,如 RunnableWithMessageHistory,这类似于使用 ConversationChain。下面,我们将 LangChain RunnableWithMessageHistory 示例应用于 mistralai/mixtral-8x22b-instruct-v0.1 模型。
工具调用
从 v0.2 开始,ChatNVIDIA 支持 bind_tools。
ChatNVIDIA 提供了与 build.nvidia.com 上的各种模型以及本地 NIM 的集成。并非所有这些模型都经过工具调用训练。请务必选择支持工具调用的模型进行实验和应用程序开发。
您可以使用以下方式获取已知支持工具调用的模型列表:
与 NVIDIA Dynamo 一起使用
NVIDIA Dynamo 是一个分布式推理服务框架,旨在数据中心规模的多节点环境中部署模型。它通过将推理的各个阶段解耦到不同的 GPU 上,智能地将请求路由到适当的 GPU 以避免冗余计算,并通过数据缓存将 GPU 内存扩展到具有成本效益的存储层,从而简化和自动化了分布式服务的复杂性。ChatNVIDIADynamo 是 ChatNVIDIA 的替代品,它会自动将 nvext.agent_hints 注入每个请求。这些提示告诉 Dynamo 部署:
osl(输出序列长度)—— 预期生成多少令牌,以便调度器可以规划内存分配iat(到达间隔时间)—— 请求到达的速度,以便路由器可以预测负载latency_sensitivity—— 请求对延迟的敏感程度,以便交互式调用获得优先路由priority—— 请求优先级,以便后台工作可以给关键路径请求让路
prefix_id,使路由器能够跟踪 KV 缓存亲和性。
本节假设您有一个正在运行的 NVIDIA Dynamo 部署。
基本用法
将ChatNVIDIA 替换为 ChatNVIDIADynamo,每个请求都会自动包含路由提示。所有标准的 ChatNVIDIA 参数都受支持。
ChatNVIDIADynamo 除了 ChatNVIDIA 支持的参数外,还接受四个额外参数:
| 参数 | 类型 | 默认值 | 描述 |
|---|---|---|---|
osl | int | 512 | 预期的输出序列长度(令牌数) |
iat | int | 250 | 预期的到达间隔时间(毫秒) |
latency_sensitivity | float | 1.0 | 更高的延迟敏感性获得优先路由 |
priority | int | 1 | 较低的优先级设置获得更多的调度优先级 |
在构造时设置默认值
在创建模型实例时配置 Dynamo 提示。当模型实例始终服务于特定角色时,这很有用,例如高优先级的交互式助手与低优先级的后台摘要器。每次调用时覆盖
Dynamo 参数也可以在每次调用时覆盖。当同一个模型实例处理具有不同特征的请求时,这很有用。使用 Dynamo 提示进行流式传输
Dynamo 提示包含在初始流式传输请求中。Dynamo 在令牌开始流动之前使用它们来选择最佳工作节点。检查负载
为了调试,可以使用内部的_get_payload 方法检查 ChatNVIDIADynamo 发送到 NIM 端点的确切负载。
nvext.agent_hints 部分:
API 参考
有关所有ChatNVIDIA 功能和配置的详细文档,请参阅 API 参考。
相关主题
langchain-nvidia-ai-endpoints包README- Nemotron 模型系列 — NVIDIA 用于智能体 AI 的开放模型
- NVIDIA API Catalog — 浏览和试用所有可用模型
- NVIDIA NIM 大型语言模型 (LLM) 概述
- NeMo Retriever 嵌入 NIM 概述
- NeMo Retriever 重新排序 NIM 概述
- 用于 RAG 工作流的
NVIDIAEmbeddings模型 - NVIDIA 提供商页面
- NVIDIA Dynamo — 开源推理框架
- Dynamo 快速入门指南 — 运行本地部署
- KV 缓存感知路由 — 智能路由器的工作原理
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

