为什么要实现 LangChain 集成?
可发现性
LangChain 是构建 LLM 应用最常用的框架,每月下载量超过 2 亿次。
互操作性
LangChain 组件暴露了标准接口,允许开发者轻松地将它们相互替换。如果您实现了 LangChain 集成,任何使用不同组件的开发者都能轻松地替换成您的组件。
最佳实践
通过其标准接口,LangChain 组件鼓励并促进了最佳实践(流式传输、异步等),从而改善了开发者体验和应用性能。
可集成的组件
虽然任何组件都可以集成到 LangChain 中,但我们更鼓励集成特定类型的组件: 推荐集成这些 ✅:- 聊天模型:最活跃使用的组件类型
- 工具/工具包:启用智能体能力
- 检索器:RAG 应用的核心
- 嵌入模型:向量操作的基础
- 向量存储:语义搜索的关键
- 中间件:通过钩子扩展智能体行为
- 沙盒:使用深度智能体安全运行代码
第三方沙盒集成的额外标准
第三方沙盒集成的额外标准
请注意,我们仅在以下情况下收录第三方沙盒集成:
- 该集成由提供沙盒的公司编写和维护。
- 或者 该集成被广泛使用,即该集成在 PyPI 或 npm 上必须至少有 10,000 次每日下载量才会被考虑收录。
- LLM(文本补全模型):已弃用,推荐使用聊天模型
- 文档加载器:维护负担高
- 键值存储:使用有限
- 文档转换器:小众用例
- 模型缓存:基础设施问题
- 图:复杂抽象
- 消息历史记录:存储抽象
- 回调:系统级组件
- 聊天加载器:需求有限
- 适配器:边缘情况工具
如何贡献集成
通过标准测试
如果适用,请为您的集成实现 LangChain 标准测试套件的支持,并成功运行它们。
添加文档
提交一个 PR,将您的集成文档添加到官方的 LangChain 文档中。
联合营销
(可选)与 LangChain 团队合作进行联合营销。
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

