Databricks Lakehouse 平台在一个平台上统一了数据、分析和 AI。本指南提供了快速入门 Databricks LLM 模型 的概述。有关所有功能和配置的详细文档,请前往 API 参考。
概述
Databricks LLM 类封装了一个完成端点,该端点托管为以下两种端点类型之一:
- Databricks Model Serving,推荐用于生产和开发,
- 集群驱动程序代理应用,推荐用于交互式开发。
限制
Databricks LLM 类是遗留实现,在功能兼容性方面存在若干限制。
- 仅支持同步调用。不支持流式传输或异步 API。
batchAPI 不受支持。
ChatDatabricks 支持 ChatModel 的所有 API,包括流式传输、异步、批处理等。
设置
要访问 Databricks 模型,您需要创建一个 Databricks 账户,设置凭据(仅当您不在 Databricks 工作区内时),并安装所需的包。凭据(仅当您不在 databricks 中时)
如果您在 Databricks 内部运行 LangChain 应用程序,可以跳过此步骤。 否则,您需要手动将 Databricks 工作区主机名和个人访问令牌分别设置为DATABRICKS_HOST 和 DATABRICKS_TOKEN 环境变量。请参阅 认证文档 了解如何获取访问令牌。
Databricks 类时传递这些参数。
安装
LangChain Databricks 集成位于langchain-community 包中。此外,需要 mlflow >= 2.9 才能运行此笔记本中的代码。
包装模型服务端点
先决条件
- 已注册并将 LLM 部署到 一个 Databricks 服务端点。
- 您拥有对该端点的 “Can Query” 权限。
- 输入:
[{"name": "prompt", "type": "string"}, {"name": "stop", "type": "list[string]"}] - 输出:
[{"type": "string"}]
调用
转换输入和输出
有时您可能希望包装具有不兼容模型签名的服务端点,或者想要插入额外的配置。您可以使用transform_input_fn 和 transform_output_fn 参数来定义额外的预处理/后处理。
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

