Azure OpenAI 与 OpenAIAzure OpenAI 指的是托管在 Microsoft Azure 平台 上的 OpenAI 模型。OpenAI 也提供其自己的模型 API。要直接访问 OpenAI 服务,请使用
ChatOpenAI 集成。Azure OpenAI v1 APIAzure OpenAI 的 v1 API(自 2025 年 8 月起正式发布)允许你直接使用
ChatOpenAI 与 Azure 端点交互。这提供了一个统一的接口,并原生支持 Microsoft Entra ID 认证和自动令牌刷新。有关将 ChatOpenAI 与 Azure v1 API 结合使用的详细信息,请参阅 ChatOpenAI Azure 部分。AzureChatOpenAI 目前仍受支持,适用于传统的 Azure OpenAI API 版本以及需要 Azure 特定配置的场景,但我们建议未来使用 ChatOpenAI 或 LangChain Azure AI 中的 AzureAIOpenAIApiChatModel。AzureChatOpenAI 与 ChatOpenAI 共享相同的基础实现,后者直接与 OpenAI 服务交互。本页面作为快速入门,指导你如何认证并将你的 Azure OpenAI 服务连接到 LangChain 聊天模型。有关可用功能的详细信息,请访问 ChatOpenAI 文档,或前往 AzureChatOpenAI API 参考。概述
集成详情
| 类 | 包 | 可序列化 | JS/TS 支持 | 下载量 | 最新版本 |
|---|---|---|---|---|---|
AzureChatOpenAI | langchain-openai | beta | ✅ (npm) |
模型特性
设置
要访问AzureChatOpenAI 模型,你需要创建一个 Azure 账户,部署一个 Azure OpenAI 模型,获取部署的名称和端点,获取一个 Azure OpenAI API 密钥,并安装 langchain-openai 集成包。
安装
凭证
前往 Azure 文档 创建你的部署并生成 API 密钥。完成后,设置AZURE_OPENAI_API_KEY 和 AZURE_OPENAI_ENDPOINT 环境变量:
实例化
现在我们可以实例化我们的模型对象并生成聊天补全。- 将
azure_deployment替换为你的部署名称。 - 你可以在此处找到最新支持的
api_version:learn.microsoft.com/en-us/azure/ai-services/openai/reference。
调用
流式传输使用量元数据
OpenAI 的聊天补全 API 默认不流式传输令牌使用量统计信息(参见 OpenAI API 参考中的流选项)。 要在使用ChatOpenAI 或 AzureChatOpenAI 进行流式传输时恢复令牌计数,请将 stream_usage=True 设置为初始化参数或在调用时设置:
指定模型版本
Azure OpenAI 响应包含model_name 响应元数据属性,这是用于生成响应的模型名称。但与原生 OpenAI 响应不同,它不包含模型的具体版本(该版本在 Azure 的部署中设置)。例如,它不区分 gpt-35-turbo-0125 和 gpt-35-turbo-0301。这使得很难知道生成响应时使用的是哪个模型版本,这可能导致例如使用 OpenAICallbackHandler 计算总成本时出错。
为了解决这个问题,你可以向 AzureChatOpenAI 类传递 model_version 参数,该参数将被添加到 llm 输出中的模型名称里。这样你就可以轻松区分不同版本的模型。
API 参考
有关所有功能和配置选项的详细文档,请前往AzureChatOpenAI API 参考。
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

