Skip to main content
langchain-nvidia-ai-endpoints 包包含由 NVIDIA AI 基础模型 提供支持并由 NVIDIA API 目录 托管的聊天模型和嵌入模型的 LangChain 集成。 NVIDIA AI 基础模型是由社区和 NVIDIA 构建的模型,针对在 NVIDIA 加速基础设施上提供最佳性能进行了优化。您可以使用 API 查询 NVIDIA API 目录上可用的实时端点,以从 DGX 托管的云计算环境中快速获取结果,或者您可以使用 NVIDIA NIM(包含在 NVIDIA AI Enterprise 许可证中)从 NVIDIA 的 API 目录下载模型。在本地运行模型的能力使您的企业拥有自定义的所有权,并完全控制您的知识产权和 AI 应用程序。 NIM 微服务按每个模型/模型族打包为容器镜像,并通过 NVIDIA NGC 目录 作为 NGC 容器镜像分发。本质上,NIM 微服务是提供用于在 AI 模型上运行推理的交互式 API 的容器。 本示例介绍如何使用 LangChain 通过 NVIDIAEmbeddings 类与支持的 NVIDIA 检索问答嵌入模型 进行交互,以实现 检索增强生成 有关通过此 API 访问聊天模型的更多信息,请参阅 ChatNVIDIA 文档。

安装包

pip install -qU langchain-nvidia-ai-endpoints

访问 NVIDIA API 目录

要获取 NVIDIA API 目录的访问权限,请执行以下操作:
  1. NVIDIA API 目录 上创建免费账户并登录。
  2. 点击您的个人资料图标,然后点击 API Keys。将显示 API Keys 页面。
  3. 点击 Generate API Key。将显示 Generate API Key 窗口。
  4. 点击 Generate Key。您应该看到 API Key Granted,并且您的密钥会出现。
  5. 复制并保存密钥为 NVIDIA_API_KEY
  6. 要验证您的密钥,请使用以下代码。
import getpass
import os

if os.environ.get("NVIDIA_API_KEY", "").startswith("nvapi-"):
    print("Valid NVIDIA_API_KEY already in environment. Delete to reset")
else:
    nvapi_key = getpass.getpass("NVAPI Key (starts with nvapi-): ")
    assert nvapi_key.startswith(
        "nvapi-"
    ), f"{nvapi_key[:5]}... is not a valid key"
    os.environ["NVIDIA_API_KEY"] = nvapi_key
现在您可以使用您的密钥访问 NVIDIA API 目录上的端点。

使用 API 目录

初始化嵌入模型时,您可以通过传递它来选择模型,例如下面的 NV-Embed-QA,或者不传递任何参数使用默认值。
from langchain_nvidia_ai_endpoints import NVIDIAEmbeddings

embedder = NVIDIAEmbeddings(model="NV-Embed-QA")
该模型是一个经过微调的 E5-large 模型,支持预期的 Embeddings 方法,包括:
  • embed_query: 为查询样本生成查询嵌入。
  • embed_documents: 为您想要搜索的文档列表生成段落嵌入。
  • aembed_query/aembed_documents: 上述方法的异步版本。

使用 NVIDIA NIM 微服务自托管

当您准备好部署 AI 应用程序时,可以使用 NVIDIA NIM 自托管模型。更多信息,请参阅 NVIDIA NIM 微服务 以下代码连接到本地托管的 NIM 微服务。
from langchain_nvidia_ai_endpoints import ChatNVIDIA, NVIDIAEmbeddings, NVIDIARerank

# connect to a chat NIM running at localhost:8000, specifying a model
llm = ChatNVIDIA(base_url="http://localhost:8000/v1", model="meta/llama3-8b-instruct")

# connect to an embedding NIM running at localhost:8080
embedder = NVIDIAEmbeddings(base_url="http://localhost:8080/v1")

# connect to a reranking NIM running at localhost:2016
ranker = NVIDIARerank(base_url="http://localhost:2016/v1")

相似度

以下是针对这些数据点的相似性快速测试: 查询:
  • What’s the weather like in Komchatka?
  • What kinds of food is Italy known for?
  • What’s my name? I bet you don’t remember…
  • What’s the point of life anyways?
  • The point of life is to have fun :D
文档:
  • Komchatka’s weather is cold, with long, severe winters.
  • Italy is famous for pasta, pizza, gelato, and espresso.
  • I can’t recall personal names, only provide information.
  • Life’s purpose varies, often seen as personal fulfillment.
  • Enjoying life’s moments is indeed a wonderful approach.

嵌入运行时

print("\nSequential Embedding: ")
q_embeddings = [
    embedder.embed_query("What's the weather like in Komchatka?"),
    embedder.embed_query("What kinds of food is Italy known for?"),
    embedder.embed_query("What's my name? I bet you don't remember..."),
    embedder.embed_query("What's the point of life anyways?"),
    embedder.embed_query("The point of life is to have fun :D"),
]
print("Shape:", (len(q_embeddings), len(q_embeddings[0])))

文档嵌入

print("\nBatch Document Embedding: ")
d_embeddings = embedder.embed_documents(
    [
        "Komchatka's weather is cold, with long, severe winters.",
        "Italy is famous for pasta, pizza, gelato, and espresso.",
        "I can't recall personal names, only provide information.",
        "Life's purpose varies, often seen as personal fulfillment.",
        "Enjoying life's moments is indeed a wonderful approach.",
    ]
)
print("Shape:", (len(d_embeddings), len(d_embeddings[0])))
现在我们已经生成了嵌入向量,我们可以对结果进行简单的相似性检查,以查看哪些文档会在检索任务中被触发为合理的答案:
pip install -qU  matplotlib scikit-learn
import matplotlib.pyplot as plt
import numpy as np
from sklearn.metrics.pairwise import cosine_similarity

# Compute the similarity matrix between q_embeddings and d_embeddings
cross_similarity_matrix = cosine_similarity(
    np.array(q_embeddings),
    np.array(d_embeddings),
)

# Plotting the cross-similarity matrix
plt.figure(figsize=(8, 6))
plt.imshow(cross_similarity_matrix, cmap="Greens", interpolation="nearest")
plt.colorbar()
plt.title("Cross-Similarity Matrix")
plt.xlabel("Query Embeddings")
plt.ylabel("Document Embeddings")
plt.grid(True)
plt.show()
提醒一下,发送到我们系统的查询和文档如下: 查询:
  • What’s the weather like in Komchatka?
  • What kinds of food is Italy known for?
  • What’s my name? I bet you don’t remember…
  • What’s the point of life anyways?
  • The point of life is to have fun :D
文档:
  • Komchatka’s weather is cold, with long, severe winters.
  • Italy is famous for pasta, pizza, gelato, and espresso.
  • I can’t recall personal names, only provide information.
  • Life’s purpose varies, often seen as personal fulfillment.
  • Enjoying life’s moments is indeed a wonderful approach.

截断

嵌入模型通常具有固定的上下文窗口,决定了可嵌入的最大输入令牌数。这个限制可能是一个硬性限制,等于模型的最大输入令牌长度,或者是一个有效限制,超过该限制后嵌入的准确性会降低。 由于模型基于令牌操作,而应用程序通常处理文本,因此应用程序很难确保其输入保持在模型的令牌限制内。默认情况下,如果输入过大,会抛出异常。 为了协助处理此问题,NVIDIA 的 NIM(API 目录或本地)提供了一个 truncate 参数,如果输入过大,它将在服务器端截断输入。 truncate 参数有三个选项:
  • “NONE”: 默认选项。如果输入过大,则抛出异常。
  • “START”: 服务器从开头(左侧)截断输入,根据需要丢弃令牌。
  • “END”: 服务器从末尾(右侧)截断输入,根据需要丢弃令牌。
long_text = "AI is amazing, amazing is " * 100
strict_embedder = NVIDIAEmbeddings()
try:
    strict_embedder.embed_query(long_text)
except Exception as e:
    print("Error:", e)
truncating_embedder = NVIDIAEmbeddings(truncate="END")
truncating_embedder.embed_query(long_text)[:5]

RAG 检索

以下是 LangChain 表达式语言检索食谱条目 初始示例的重用,但使用 AI 基础模型的 Mixtral 8x7B InstructNVIDIA 检索 QA 嵌入 模型在其沙盒环境中执行。食谱中的后续示例也按预期运行,我们鼓励您尝试这些选项。 提示: 我们建议使用 Mixtral 进行内部推理(即数据提取、工具选择等的指令遵循),并使用 Llama-Chat 进行最终的“总结”响应,即根据历史记录和上下文生成一个适用于该用户的简单响应。
pip install -qU  langchain faiss-cpu tiktoken langchain-community

from operator import itemgetter

from langchain_community.vectorstores import FAISS
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.runnables import RunnablePassthrough
from langchain_nvidia_ai_endpoints import ChatNVIDIA
vectorstore = FAISS.from_texts(
    ["harrison worked at kensho"],
    embedding=NVIDIAEmbeddings(model="NV-Embed-QA"),
)
retriever = vectorstore.as_retriever()

prompt = ChatPromptTemplate.from_messages(
    [
        (
            "system",
            "Answer solely based on the following context:\n<Documents>\n{context}\n</Documents>",
        ),
        ("user", "{question}"),
    ]
)

model = ChatNVIDIA(model="ai-mixtral-8x7b-instruct")

chain = (
    {"context": retriever, "question": RunnablePassthrough()}
    | prompt
    | model
    | StrOutputParser()
)

chain.invoke("where did harrison work?")
prompt = ChatPromptTemplate.from_messages(
    [
        (
            "system",
            "Answer using information solely based on the following context:\n<Documents>\n{context}\n</Documents>"
            "\nSpeak only in the following language: {language}",
        ),
        ("user", "{question}"),
    ]
)

chain = (
    {
        "context": itemgetter("question") | retriever,
        "question": itemgetter("question"),
        "language": itemgetter("language"),
    }
    | prompt
    | model
    | StrOutputParser()
)

chain.invoke({"question": "where did harrison work", "language": "italian"})

相关主题