Azure Machine Learning 是一个用于构建、训练和部署机器学习模型的平台。用户可以在模型目录中探索要部署的模型类型,该目录提供了来自不同提供商的基础模型和通用模型。 通常,您需要部署模型才能使用其预测(推理)。在本笔记本介绍了如何使用托管在Azure Machine Learning中,在线端点 用于通过实时服务部署这些模型。它们基于端点和部署的概念,允许您将生产工作负载的接口与提供服务的实现解耦。
Azure Machine Learning 端点 上的聊天模型。
设置
您必须 在 Azure ML 上部署模型 或 部署到 Azure AI Foundry(原 Azure AI Studio) 并获取以下参数:endpoint_url:端点提供的 REST 端点 URL。endpoint_api_type:将模型部署到 专用端点(托管托管基础设施)时,使用endpoint_type='dedicated'。使用 按需付费 服务(模型即服务)部署模型时,使用endpoint_type='serverless'。endpoint_api_key:端点提供的 API 密钥。
内容格式化器
content_formatter 参数是一个处理程序类,用于转换 AzureML 端点的请求和响应以匹配所需的架构。由于模型目录中有多种模型,每种模型处理数据的方式可能不同,因此提供了 ContentFormatterBase 类,允许用户根据需要转换数据。提供了以下内容格式化器:
CustomOpenAIChatContentFormatter:为遵循 OpenAI API 规范的请求和响应的模型(如 LLaMa2-chat)格式化请求和响应数据。
langchain.chat_models.azureml_endpoint.LlamaChatContentFormatter 正在被弃用,并由 langchain.chat_models.azureml_endpoint.CustomOpenAIChatContentFormatter 替代。
您可以从类 langchain_community.llms.azureml_endpoint.ContentFormatterBase 派生,为您的模型实现特定的自定义内容格式化器。
示例
以下部分包含如何使用此类的示例:示例:使用实时端点进行聊天补全
示例:使用按需付费部署(模型即服务)进行聊天补全
model_kwargs 参数:
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

