Skip to main content
Hugging Face Hub 是一个拥有超过 12 万个模型、2 万个数据集和 5 万个演示应用(Spaces)的平台,所有资源均为开源且公开可用,人们可以在这个在线平台上轻松协作并共同构建机器学习。
Hugging Face Hub 还提供各种端点用于构建机器学习应用程序。 本示例展示了如何连接到不同类型的端点。 特别是,文本生成推理由 Text Generation Inference 提供支持:这是一个为极速文本生成推理而定制的 Rust、Python 和 gRPC 服务器。
from langchain_huggingface import HuggingFaceEndpoint

安装和设置

要使用它,您应该已安装 huggingface_hub Python 已安装的包
pip install -qU huggingface_hub
# get a token: https://huggingface.co/docs/api-inference/quicktour#get-your-api-token

from getpass import getpass

HUGGINGFACEHUB_API_TOKEN = getpass()
import os

os.environ["HUGGINGFACEHUB_API_TOKEN"] = HUGGINGFACEHUB_API_TOKEN

准备示例

from langchain_huggingface import HuggingFaceEndpoint
from langchain_classic.chains import LLMChain
from langchain_core.prompts import PromptTemplate
question = "Who won the FIFA World Cup in the year 1994? "

template = """Question: {question}

Answer: Let's think step by step."""

prompt = PromptTemplate.from_template(template)

示例

以下是访问无服务器 Inference Providers API 的 HuggingFaceEndpoint 集成的示例。
repo_id = "deepseek-ai/DeepSeek-R1-0528"

llm = HuggingFaceEndpoint(
    repo_id=repo_id,
    max_length=128,
    temperature=0.5,
    huggingfacehub_api_token=HUGGINGFACEHUB_API_TOKEN,
    provider="auto",  # set your provider here hf.co/settings/inference-providers
    # provider="hyperbolic",
    # provider="nebius",
    # provider="together",
)
llm_chain = prompt | llm
print(llm_chain.invoke({"question": question}))

专用端点

免费的无服务器 API 让您能够即时实施解决方案并进行迭代,但由于负载与其他请求共享,在重度使用场景下可能会受到速率限制。 对于企业工作负载,最好使用 Inference Endpoints - Dedicated。 这提供了完全托管的基础设施,提供更高的灵活性和速度。这些资源附带持续支持和正常运行时间保证,以及自动扩展等选项。
# Set the url to your Inference Endpoint below
your_endpoint_url = "https://fayjubiy2xqn36z0.us-east-1.aws.endpoints.huggingface.cloud"
llm = HuggingFaceEndpoint(
    endpoint_url=f"{your_endpoint_url}",
    max_new_tokens=512,
    top_k=10,
    top_p=0.95,
    typical_p=0.95,
    temperature=0.01,
    repetition_penalty=1.03,
)
llm("What did foo say about bar?")

流式传输

from langchain_core.callbacks import StreamingStdOutCallbackHandler
from langchain_huggingface import HuggingFaceEndpoint

llm = HuggingFaceEndpoint(
    endpoint_url=f"{your_endpoint_url}",
    max_new_tokens=512,
    top_k=10,
    top_p=0.95,
    typical_p=0.95,
    temperature=0.01,
    repetition_penalty=1.03,
    streaming=True,
)
llm("What did foo say about bar?", callbacks=[StreamingStdOutCallbackHandler()])
同一个 HuggingFaceEndpoint 类可以与本地 HuggingFace TGI 实例 配合使用,用于服务 LLM。查看 TGI 仓库 以了解关于各种硬件(GPU、TPU、Gaudi…)支持的详细信息。