Skip to main content
内存 是一个记录先前交互信息的系统。对于 AI 智能体而言,内存至关重要,因为它能让智能体记住之前的交互、从反馈中学习并适应用户偏好。随着智能体处理更复杂的任务和大量的用户交互,这种能力对于效率和用户满意度都变得至关重要。 本概念指南根据其回忆范围涵盖两种类型的内存:
  • 短期记忆,或称线程范围的内存,通过维护会话内的消息历史来跟踪正在进行的对话。LangGraph 将短期记忆作为智能体状态的一部分进行管理。状态通过检查点器持久化到数据库,以便线程可以随时恢复。短期内存在图被调用或步骤完成时更新,并在每个步骤开始时读取状态。
  • 长期记忆 跨会话存储用户特定或应用级别的数据,并在对话线程之间共享。它可以随时在任何线程中被回忆起来。内存的作用域可以是任何自定义命名空间,而不仅限于单个线程 ID。LangGraph 提供了存储参考文档)来让你保存和回忆长期记忆。
短期 vs 长期

短期记忆

短期记忆 让你的应用能够记住单个线程或对话内的先前交互。线程组织会话中的多次交互,类似于电子邮件将消息分组在单个对话中的方式。 LangGraph 将短期记忆作为智能体状态的一部分进行管理,通过线程范围的检查点持久化。此状态通常可以包括对话历史以及其他有状态数据,例如上传的文件、检索到的文档或生成的工件。通过将这些存储在图的状态中,机器人可以访问给定对话的完整上下文,同时保持不同线程之间的分离。

管理短期记忆

对话历史是最常见的短期记忆形式,而长对话对当今的 LLM 构成了挑战。完整的历史可能无法放入 LLM 的上下文窗口,导致不可恢复的错误。即使你的 LLM 支持完整的上下文长度,大多数 LLM 在处理长上下文时仍然表现不佳。它们会被陈旧或离题的内容“分散注意力”,同时还会遭受响应时间变慢和成本增加的困扰。 聊天模型使用消息来接受上下文,这些消息包括开发者提供的指令(系统消息)和用户输入(人类消息)。在聊天应用中,消息在人类输入和模型响应之间交替,导致消息列表随时间推移变得越来越长。由于上下文窗口有限且令牌丰富的消息列表可能成本高昂,许多应用可以受益于使用技术手动删除或遗忘陈旧信息。 过滤 有关管理消息的常用技术的更多信息,请参阅添加和管理内存指南。

长期记忆

LangGraph 中的长期记忆允许系统在不同对话或会话之间保留信息。与线程范围的短期记忆不同,长期记忆保存在自定义的“命名空间”中。 长期记忆是一个复杂的挑战,没有一刀切的解决方案。然而,以下问题提供了一个框架,帮助你了解不同的技术:
  • 内存的类型是什么?人类使用记忆来记住事实(语义记忆)、经历(情景记忆)和规则(程序性记忆)。AI 智能体可以以相同的方式使用内存。例如,AI 智能体可以使用内存来记住关于用户的特定事实以完成任务。
  • 你希望何时更新记忆? 内存可以作为智能体应用逻辑的一部分进行更新(例如,“在热路径上”)。在这种情况下,智能体通常在响应用户之前决定记住事实。或者,内存可以作为后台任务进行更新(在后台/异步运行并生成记忆的逻辑)。我们在下面的部分中解释了这些方法之间的权衡。
不同的应用需要各种类型的内存。尽管类比并不完美,但研究人类记忆类型可以带来启发。一些研究(例如 CoALA 论文)甚至将这些人类记忆类型映射到 AI 智能体中使用的类型。
记忆类型存储内容人类示例智能体示例
语义事实我在学校学到的东西关于用户的事实
情景经历我做过的事情过去的智能体动作
程序性指令本能或运动技能智能体系统提示

语义记忆

语义记忆,无论是在人类还是 AI 智能体中,都涉及特定事实和概念的保留。在人类中,它可以包括在学校学到的信息以及对概念及其关系的理解。对于 AI 智能体,语义记忆通常用于通过记住过去交互中的事实或概念来个性化应用。
语义记忆不同于“语义搜索”,后者是一种使用“含义”(通常作为嵌入)查找相似内容的技术。语义记忆是心理学中的一个术语,指存储事实和知识,而语义搜索是一种基于含义而非精确匹配来检索信息的方法。
语义记忆可以通过不同的方式管理:

配置文件

记忆可以是一个单一的、持续更新的“配置文件”,包含关于用户、组织或其他实体(包括智能体本身)的、范围明确且具体的信息。配置文件通常只是一个 JSON 文档,包含你选择代表你领域的各种键值对。 当记住一个配置文件时,你需要确保每次都在更新配置文件。因此,你需要传入先前的配置文件,并要求模型生成一个新的配置文件(或一些要应用于旧配置文件的 JSON 补丁)。随着配置文件变得越来越大,这可能会变得容易出错,并且可能受益于将配置文件拆分为多个文档或在生成文档时进行严格解码,以确保内存模式保持有效。 更新配置文件

集合

或者,记忆可以是一个随时间持续更新和扩展的文档集合。每个单独的记忆可以范围更窄且更容易生成,这意味着你不太可能随时间推移丢失信息。对于 LLM 来说,为新信息生成_新_对象比将新信息与现有配置文件协调起来更容易。因此,文档集合往往会导致下游更高的召回率 然而,这会将一些复杂性转移到内存更新上。模型现在必须_删除_或_更新_列表中的现有项目,这可能很棘手。此外,一些模型可能默认过度插入,而另一些可能默认过度更新。请参阅 Trustcall 包以了解一种管理方法,并考虑评估(例如使用 LangSmith 等工具)来帮助你调整行为。 使用文档集合也会将复杂性转移到内存搜索上。Store 目前同时支持语义搜索按内容过滤 最后,使用记忆集合可能使向模型提供全面上下文变得具有挑战性。虽然单个记忆可能遵循特定的模式,但这种结构可能无法捕捉记忆之间的完整上下文或关系。因此,当使用这些记忆生成响应时,模型可能缺乏在统一配置文件方法中更容易获得的重要上下文信息。 更新列表 无论采用哪种内存管理方法,核心点是智能体将使用语义记忆来锚定其响应,这通常会导致更个性化和相关的交互。

情景记忆

情景记忆,无论是在人类还是 AI 智能体中,都涉及回忆过去的事件或动作。CoALA 论文很好地阐述了这一点:事实可以写入语义记忆,而经历可以写入情景记忆。对于 AI 智能体,情景记忆通常用于帮助智能体记住如何完成任务。 在实践中,情景记忆通常通过少样本示例提示来实现,智能体从过去的序列中学习以正确执行任务。有时“展示”比“讲述”更容易,LLM 从示例中学习得很好。少样本学习让你可以通过在提示中更新输入-输出示例来说明预期行为来“编程”你的 LLM。虽然可以使用各种最佳实践来生成少样本示例,但挑战通常在于根据用户输入选择最相关的示例。 请注意,内存存储只是将数据存储为少样本示例的一种方式。如果你希望有更多的开发者参与,或者将少样本与你的评估工具更紧密地结合,你也可以使用 LangSmith 数据集来存储你的数据,并实现你自己的检索逻辑,根据用户输入选择最相关的示例。 请参阅这篇博客文章,展示了使用少样本提示来提高工具调用性能,以及这篇博客文章使用少样本示例来使 LLM 与人类偏好对齐。

程序性记忆

程序性记忆,无论是在人类还是 AI 智能体中,都涉及记住用于执行任务的规则。在人类中,程序性记忆类似于如何执行任务的内化知识,例如通过基本运动技能和平衡骑自行车。另一方面,情景记忆涉及回忆特定的经历,例如你第一次在没有辅助轮的情况下成功骑自行车,或者一次穿越风景优美的难忘骑行。对于 AI 智能体,程序性记忆是模型权重、智能体代码和智能体提示的组合,共同决定了智能体的功能。 在实践中,智能体修改其模型权重或重写其代码的情况相当少见。然而,智能体修改自己的提示更为常见。 完善智能体指令的一种有效方法是通过“反思”或元提示。这包括向智能体提供其当前指令(例如,系统提示)以及最近的对话或明确的用户反馈。然后智能体根据此输入完善自己的指令。这种方法对于难以预先指定指令的任务特别有用,因为它允许智能体从其交互中学习和适应。 例如,我们构建了一个推文生成器,使用外部反馈和提示重写来为 Twitter 生成高质量的论文摘要。在这种情况下,具体的摘要提示很难先验地指定,但用户很容易批评生成的推文并提供关于如何改进摘要过程的反馈。 下面的伪代码展示了如何使用 LangGraph 内存存储来实现这一点,使用存储来保存提示,update_instructions 节点获取当前提示(以及从与用户的对话中捕获的反馈,记录在 state["messages"] 中),更新提示,并将新提示保存回存储。然后,call_model 从存储中获取更新后的提示并使用它来生成响应。
// 使用指令的节点
const callModel = async (state: State, store: BaseStore) => {
    const namespace = ["agent_instructions"];
    const instructions = await store.get(namespace, "agent_a");
    // 应用逻辑
    const prompt = promptTemplate.format({
        instructions: instructions[0].value.instructions
    });
    // ...
};

// 更新指令的节点
const updateInstructions = async (state: State, store: BaseStore) => {
    const namespace = ["instructions"];
    const currentInstructions = await store.search(namespace);
    // 内存逻辑
    const prompt = promptTemplate.format({
        instructions: currentInstructions[0].value.instructions,
        conversation: state.messages
    });
    const output = await llm.invoke(prompt);
    const newInstructions = output.new_instructions;
    await store.put(["agent_instructions"], "agent_a", {
        instructions: newInstructions
    });
    // ...
};
更新指令

写入记忆

智能体写入记忆有两种主要方法:“在热路径上”“在后台” 热路径 vs 后台

在热路径上

在运行时创建记忆既有优势也有挑战。积极的一面是,这种方法允许实时更新,使新记忆立即可用于后续交互。它还支持透明度,因为可以在创建和存储记忆时通知用户。 然而,这种方法也带来了挑战。如果智能体需要一个新的工具来决定将什么提交到内存,它可能会增加复杂性。此外,推理要保存到内存的内容的过程可能会影响智能体的延迟。最后,智能体必须在内存创建和其他职责之间进行多任务处理,这可能会影响创建记忆的数量和质量。 例如,ChatGPT 使用一个 save_memories 工具来以内容字符串的形式更新插入记忆,并决定是否以及如何使用此工具处理每条用户消息。请参阅我们的 memory-agent 模板作为参考实现。

在后台

作为单独的后台任务创建记忆有几个优点。它消除了主应用中的延迟,将应用逻辑与内存管理分离,并允许智能体更专注地完成任务。这种方法还提供了在时间安排上创建内存的灵活性,以避免冗余工作。 然而,这种方法也有其自身的挑战。确定内存写入的频率变得至关重要,因为不频繁的更新可能会使其他线程没有新的上下文。决定何时触发内存形成也很重要。常见的策略包括在一段时间后安排(如果发生新事件则重新安排)、使用 cron 计划,或允许用户或应用逻辑手动触发。 请参阅我们的 memory-service 模板作为参考实现。

内存存储

LangGraph 将长期记忆作为 JSON 文档存储在存储中。每个记忆都组织在自定义的 namespace(类似于文件夹)和不同的 key(如文件名)下。命名空间通常包括用户或组织 ID 或其他标签,以便更容易地组织信息。这种结构支持记忆的分层组织。然后通过内容过滤器支持跨命名空间搜索。
import { InMemoryStore } from "@langchain/langgraph";

const embed = (texts: string[]): number[][] => {
    // 替换为实际的嵌入函数或 LangChain 嵌入对象
    return texts.map(() => [1.0, 2.0]);
};

// InMemoryStore 将数据保存到内存字典中。在生产使用中使用数据库支持的存储。
const store = new InMemoryStore({ index: { embed, dims: 2 } });
const userId = "my-user";
const applicationContext = "chitchat";
const namespace = [userId, applicationContext];

await store.put(
    namespace,
    "a-memory",
    {
        rules: [
            "User likes short, direct language",
            "User only speaks English & TypeScript",
        ],
        "my-key": "my-value",
    }
);

// 通过 ID 获取“记忆”
const item = await store.get(namespace, "a-memory");

// 在此命名空间内搜索“记忆”,按内容等价性过滤,按向量相似性排序
const items = await store.search(
    namespace,
    {
        filter: { "my-key": "my-value" },
        query: "language preferences"
    }
);
有关内存存储的更多信息,请参阅持久化指南。

了解更多