ChatLiteLLM:用于 LiteLLM 基本使用的主要 LangChain 包装器(文档)。ChatLiteLLMRouter:一个利用 LiteLLM 路由器的ChatLiteLLM包装器(文档)。
概述
集成详情
| 类 | 包 | 可序列化 | JS 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|
ChatLiteLLM | langchain-litellm | ❌ | ❌ | ||
ChatLiteLLMRouter | langchain-litellm | ❌ | ❌ |
模型特性
设置
要访问ChatLiteLLM 和 ChatLiteLLMRouter 模型,您需要安装 langchain-litellm 包,并创建 OpenAI、Anthropic、Azure、Replicate、OpenRouter、Hugging Face、Together AI 或 Cohere 账户。然后,您必须获取 API 密钥并将其导出为环境变量。
凭证
您需要选择所需的 LLM 提供商并注册以获取其 API 密钥。示例 - Anthropic
前往 Claude 控制台 注册并生成 Claude API 密钥。完成后,设置ANTHROPIC_API_KEY 环境变量:
示例 - OpenAI
前往 platform.openai.com/api-keys 注册 OpenAI 并生成 API 密钥。完成后,设置 OPENAI_API_KEY 环境变量。安装
LangChain LiteLLM 集成可通过langchain-litellm 包获取:
实例化
ChatLiteLLM
您可以通过提供 LiteLLM 支持的model 名称来实例化 ChatLiteLLM 模型。
ChatLiteLLMRouter
您还可以通过按照 LiteLLM 路由文档 中的说明定义模型列表,来利用 LiteLLM 的路由功能。调用
无论您实例化的是ChatLiteLLM 还是 ChatLiteLLMRouter,现在都可以通过 LangChain 的 API 使用该聊天模型。
异步与流式功能
ChatLiteLLM 和 ChatLiteLLMRouter 还支持异步和流式功能:
API 参考
有关ChatLiteLLM 和 ChatLiteLLMRouter 所有功能和配置的详细文档,请访问 API 参考。
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

