- 为 AI 推理工作负载实现前所未有的速度
- 以高吞吐量进行商业构建
- 利用我们无缝的集群技术轻松扩展 AI 工作负载
ChatCerebras 聊天模型。有关 ChatCerebras 所有功能和配置的详细文档,请参阅 API 参考。
概述
集成详情
| 类 | 包 | 可序列化 | PY 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|
ChatCerebras | @langchain/cerebras | ❌ | ✅ |
模型特性
请参阅下表标题中的链接,了解如何使用特定功能的指南。设置
要访问 ChatCerebras 模型,您需要创建一个 Cerebras 账户,获取 API 密钥,并安装@langchain/cerebras 集成包。
凭证
从 cloud.cerebras.ai 获取 API 密钥,并将其添加到环境变量中:安装
LangChain ChatCerebras 集成位于@langchain/cerebras 包中:
实例化
现在我们可以实例化模型对象并生成聊天补全:调用
JSON 调用
API 参考
有关ChatCerebras 所有功能和配置的详细文档,请参阅 API 参考。
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

