ChatWatsonx 是 IBM watsonx.ai 基础模型的封装器。这些示例旨在展示如何使用
LangChain LLMs API 与 watsonx.ai 模型进行通信。
概述
集成详情
| 类 | 包 | 可序列化 | JS 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|
ChatWatsonx | langchain-ibm | ❌ | ✅ |
模型特性
设置
要访问 IBM watsonx.ai 模型,您需要创建一个 IBM watsonx.ai 账户,获取 API 密钥,并安装langchain-ibm 集成包。
凭证
下面的单元格定义了使用 watsonx 基础模型推理所需的凭证。 操作: 提供 IBM Cloud 用户 API 密钥。详情请参阅管理用户 API 密钥。安装
LangChain IBM 集成位于langchain-ibm 包中:
实例化
您可能需要针对不同的模型或任务调整模型parameters。详情请参考可用的 TextChatParameters。
WatsonxLLM 类。
注意:
- 要为 API 调用提供上下文,您必须传递
project_id或space_id。要获取您的项目或空间 ID,请打开您的项目或空间,转到 管理 选项卡,然后单击 常规。更多信息请参阅:项目文档 或 部署空间文档。 - 根据您已配置服务实例的区域,使用 watsonx.ai API 身份验证 中列出的 URL 之一。
project_id 和达拉斯 URL。
您需要指定用于推理的 model_id。您可以在支持的聊天模型中找到所有可用模型的列表。
model_id,您还可以传递先前部署的模型(引用提示模板)的 deployment_id。
APIClient 对象传递给 ChatWatsonx 类。
调用
要获取补全结果,您可以直接使用字符串提示调用模型。链式调用
创建ChatPromptTemplate 对象,它将负责生成随机问题。
流式传输模型输出
您可以流式传输模型输出。批量处理模型输出
您可以批量处理模型输出。工具调用
ChatWatsonx.bind_tools()
AIMessage.tool_calls
请注意,AIMessage 有一个 tool_calls 属性。它包含一个标准化的 ToolCall 格式,该格式与模型提供商无关。
API 参考
有关ChatWatsonx 所有功能和配置的详细文档,请访问 API 参考。
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

