HuggingFacePipeline 类在本地运行 Hugging Face 模型。
Hugging Face 模型库 托管了超过 12 万个模型、2 万个数据集和 5 万个演示应用(Spaces),全部开源并公开可用,这是一个人们可以轻松协作和共同构建机器学习的在线平台。
这些可以通过此本地管道包装器从 LangChain 调用,或者通过 HuggingFaceHub 类调用其托管的推理端点。
使用时,您应该已安装 transformers Python 包,以及 PyTorch。您还可以安装 xformer 以实现更节省内存的注意力机制实现。
模型加载
可以使用from_model_id 方法指定模型参数来加载模型。
transformers 管道来加载它们
创建链
将模型加载到内存后,您可以将其与提示词组合以形成链。skip_prompt=True 绑定到 LLM。
GPU 推理
当在有 GPU 的机器上运行时,可以指定device=n 参数将模型放置在指定的设备上。默认为 -1 用于 CPU 推理。
如果您有多个 GPU 和/或模型太大无法放入单个 GPU,可以指定 device_map="auto",这需要并使用 Accelerate 库来自动确定如何加载模型权重。
注意:不应同时指定 device 和 device_map,否则可能导致意外行为。
批量 GPU 推理
如果在带有 GPU 的设备上运行,也可以在 GPU 上以批处理模式运行推理。使用 OpenVINO 后端进行推理
要使用 OpenVINO 部署模型,可以指定backend="openvino" 参数以触发 OpenVINO 作为后端推理框架。
如果您有 Intel GPU,可以指定 model_kwargs={"device": "GPU"} 在其上运行推理。
使用本地 OpenVINO 模型进行推理
您可以通过 CLI 将 导出您的模型 为 OpenVINO IR 格式,并从本地文件夹加载模型。--weight-format 应用 8 位或 4 位权重量化以减少推理延迟和模型占用空间:
ov_config 启用,如下所示:
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

