ChatMistralAI 所有功能和配置的详细文档,请参阅 API 参考。
概述
集成详情
| 类 | 包 | 可序列化 | Python 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|
ChatMistralAI | @langchain/mistralai | ❌ | ✅ |
模型特性
下表标题中的链接提供了如何使用特定功能的指南。设置
要访问 Mistral AI 模型,您需要创建一个 Mistral AI 账户,获取 API 密钥,并安装@langchain/mistralai 集成包。
凭证
访问 Mistral 控制台 注册并生成 API 密钥。完成后,设置MISTRAL_API_KEY 环境变量:
安装
LangChain ChatMistralAI 集成位于@langchain/mistralai 包中:
实例化
现在我们可以实例化模型对象并生成聊天补全:调用
向 Mistral 发送聊天消息时,需要遵循以下要求:- 第一条消息 不能 是助手(ai)消息。
- 消息 必须 在用户和助手(ai)消息之间交替。
- 消息 不能 以助手(ai)或系统消息结尾。
工具调用
Mistral 的 API 支持其部分模型的工具调用。您可以在此页面查看哪些模型支持工具调用。 以下示例演示了如何使用它:钩子
Mistral AI 支持三个事件的自定义钩子:beforeRequest、requestError 和 response。每种钩子类型的函数签名示例如下:addAllHooksToHttpClient 方法会清除所有当前添加的钩子,然后分配整个更新后的钩子列表,以避免钩子重复。
可以逐个移除钩子,也可以一次性清除模型中的所有钩子。
API 参考
有关ChatMistralAI 所有功能和配置的详细文档,请参阅 API 参考。
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

