Hugging Face Hub 是一个拥有超过 12 万个模型、2 万个数据集和 5 万个演示应用(Spaces)的平台,所有资源均为开源且公开可用,人们可以在这个在线平台上轻松协作并共同构建机器学习。
Hugging Face Hub 还提供各种端点用于构建机器学习应用程序。
本示例展示了如何连接到不同类型的端点。
特别是,文本生成推理由 Text Generation Inference 提供支持:这是一个为极速文本生成推理而定制的 Rust、Python 和 gRPC 服务器。
安装和设置
要使用它,您应该已安装 huggingface_hub Python 已安装的包。准备示例
示例
以下是访问无服务器 Inference Providers API 的 HuggingFaceEndpoint 集成的示例。专用端点
免费的无服务器 API 让您能够即时实施解决方案并进行迭代,但由于负载与其他请求共享,在重度使用场景下可能会受到速率限制。 对于企业工作负载,最好使用 Inference Endpoints - Dedicated。 这提供了完全托管的基础设施,提供更高的灵活性和速度。这些资源附带持续支持和正常运行时间保证,以及自动扩展等选项。流式传输
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

