langchain-nvidia-ai-endpoints 包包含由 NVIDIA AI 基础模型 提供支持并由 NVIDIA API 目录 托管的聊天模型和嵌入模型的 LangChain 集成。
NVIDIA AI 基础模型是由社区和 NVIDIA 构建的模型,针对在 NVIDIA 加速基础设施上提供最佳性能进行了优化。您可以使用 API 查询 NVIDIA API 目录上可用的实时端点,以从 DGX 托管的云计算环境中快速获取结果,或者您可以使用 NVIDIA NIM(包含在 NVIDIA AI Enterprise 许可证中)从 NVIDIA 的 API 目录下载模型。在本地运行模型的能力使您的企业拥有自定义的所有权,并完全控制您的知识产权和 AI 应用程序。
NIM 微服务按每个模型/模型族打包为容器镜像,并通过 NVIDIA NGC 目录 作为 NGC 容器镜像分发。本质上,NIM 微服务是提供用于在 AI 模型上运行推理的交互式 API 的容器。
本示例介绍如何使用 LangChain 通过 NVIDIAEmbeddings 类与支持的 NVIDIA 检索问答嵌入模型 进行交互,以实现 检索增强生成。
有关通过此 API 访问聊天模型的更多信息,请参阅 ChatNVIDIA 文档。
安装包
访问 NVIDIA API 目录
要获取 NVIDIA API 目录的访问权限,请执行以下操作:- 在 NVIDIA API 目录 上创建免费账户并登录。
- 点击您的个人资料图标,然后点击 API Keys。将显示 API Keys 页面。
- 点击 Generate API Key。将显示 Generate API Key 窗口。
- 点击 Generate Key。您应该看到 API Key Granted,并且您的密钥会出现。
- 复制并保存密钥为
NVIDIA_API_KEY。 - 要验证您的密钥,请使用以下代码。
使用 API 目录
初始化嵌入模型时,您可以通过传递它来选择模型,例如下面的NV-Embed-QA,或者不传递任何参数使用默认值。
Embeddings 方法,包括:
-
embed_query: 为查询样本生成查询嵌入。 -
embed_documents: 为您想要搜索的文档列表生成段落嵌入。 -
aembed_query/aembed_documents: 上述方法的异步版本。
使用 NVIDIA NIM 微服务自托管
当您准备好部署 AI 应用程序时,可以使用 NVIDIA NIM 自托管模型。更多信息,请参阅 NVIDIA NIM 微服务。 以下代码连接到本地托管的 NIM 微服务。相似度
以下是针对这些数据点的相似性快速测试: 查询:- What’s the weather like in Komchatka?
- What kinds of food is Italy known for?
- What’s my name? I bet you don’t remember…
- What’s the point of life anyways?
- The point of life is to have fun :D
- Komchatka’s weather is cold, with long, severe winters.
- Italy is famous for pasta, pizza, gelato, and espresso.
- I can’t recall personal names, only provide information.
- Life’s purpose varies, often seen as personal fulfillment.
- Enjoying life’s moments is indeed a wonderful approach.
嵌入运行时
文档嵌入
- What’s the weather like in Komchatka?
- What kinds of food is Italy known for?
- What’s my name? I bet you don’t remember…
- What’s the point of life anyways?
- The point of life is to have fun :D
- Komchatka’s weather is cold, with long, severe winters.
- Italy is famous for pasta, pizza, gelato, and espresso.
- I can’t recall personal names, only provide information.
- Life’s purpose varies, often seen as personal fulfillment.
- Enjoying life’s moments is indeed a wonderful approach.
截断
嵌入模型通常具有固定的上下文窗口,决定了可嵌入的最大输入令牌数。这个限制可能是一个硬性限制,等于模型的最大输入令牌长度,或者是一个有效限制,超过该限制后嵌入的准确性会降低。 由于模型基于令牌操作,而应用程序通常处理文本,因此应用程序很难确保其输入保持在模型的令牌限制内。默认情况下,如果输入过大,会抛出异常。 为了协助处理此问题,NVIDIA 的 NIM(API 目录或本地)提供了一个truncate 参数,如果输入过大,它将在服务器端截断输入。
truncate 参数有三个选项:
- “NONE”: 默认选项。如果输入过大,则抛出异常。
- “START”: 服务器从开头(左侧)截断输入,根据需要丢弃令牌。
- “END”: 服务器从末尾(右侧)截断输入,根据需要丢弃令牌。
RAG 检索
以下是 LangChain 表达式语言检索食谱条目 初始示例的重用,但使用 AI 基础模型的 Mixtral 8x7B Instruct 和 NVIDIA 检索 QA 嵌入 模型在其沙盒环境中执行。食谱中的后续示例也按预期运行,我们鼓励您尝试这些选项。 提示: 我们建议使用 Mixtral 进行内部推理(即数据提取、工具选择等的指令遵循),并使用 Llama-Chat 进行最终的“总结”响应,即根据历史记录和上下文生成一个适用于该用户的简单响应。相关主题
langchain-nvidia-ai-endpoints包README- NVIDIA NIM 大型语言模型 (LLM) 概述
- NeMo Retriever 嵌入 NIM 概述
- NeMo Retriever 重排序 NIM 概述
ChatNVIDIA模型- NVIDIA 提供者页面
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

