基于Agent-SDK的Claude 记忆插件来了:上下文不再丢,Agent 开始“记住你是谁”

举报
霍格沃兹测试开发学社 发表于 2026/03/31 18:09:00 2026/03/31
【摘要】 导读你有没有遇到过这种情况:写到一半,模型“忘了”你刚刚的设计约束多轮对话后,代码风格开始漂移上下文越长,token 越贵,但效果反而变差问题不在模型能力,而在记忆机制。最近一个项目开始把这件事工程化解决:claude-mem —— 给 Claude Code 加一层“长期记忆系统”。  https://github.com/thedotmack/claude-mem目录为什么“记忆”是当前...
导读

你有没有遇到过这种情况:

  • 写到一半,模型“忘了”你刚刚的设计约束
  • 多轮对话后,代码风格开始漂移
  • 上下文越长,token 越贵,但效果反而变差

问题不在模型能力,而在记忆机制

最近一个项目开始把这件事工程化解决:claude-mem —— 给 Claude Code 加一层“长期记忆系统”。  https://github.com/thedotmack/claude-mem





目录

  1. 为什么“记忆”是当前 Agent 的最大短板
  2. claude-mem 在做什么(不是简单存日志)
  3. 核心架构:压缩、抽取、注入
  4. 和 OpenClaw / Claude Code 的定位差异
  5. 能落地的工程场景(不是概念)
  6. 这类方案的边界与风险

一、为什么记忆是当前 Agent 的最大短板

现在大多数 AI 编程工具,本质还是:

  • Prompt + 临时上下文
  • Session 内有效,Session 外失忆

这会导致三个工程级问题:

1)上下文“越用越脏”

长对话会引入:

  • 冗余指令
  • 过期决策
  • 错误假设残留

最终结果:模型越来越不稳定


2)经验无法复用

你每次都在:

  • 重复解释项目结构
  • 重复定义编码规范
  • 重复纠正模型行为

这本质是没有长期记忆层


3)成本指数上升

上下文越长:

  • token 成本 ↑
  • 推理延迟 ↑
  • 质量反而 ↓

所以:

现在的 Agent,更像“短期记忆+强推理”,而不是“持续学习系统”


二、claude-mem 在做什么(关键不是“存”,而是“压缩”)

这个项目核心做了三件事:

1)全量记录

  • 捕获 Claude 在 coding session 中的行为
  • 包括:对话、修改、决策路径

这一步很多工具都能做(日志系统)


2)AI 压缩(关键)

不是简单存文本,而是:

  • 抽取关键决策
  • 去掉冗余上下文
  • 生成“高密度记忆片段”

类似于:

原始上下文:5000 tokens
压缩后记忆:200 tokens(但保留核心信息)

3)精准注入

在未来交互中:

  • 根据当前任务
  • 自动检索相关记忆
  • 注入 prompt

本质是一个轻量版 RAG + Memory Layer


三、核心架构拆解(工程视角)

可以把它理解成三层结构:

[Session行为流]
        ↓
[Memory Engine]
   - 抽取
   - 压缩
   - 存储
        ↓
[Context Injection]
   - 检索
   - 重组
   - 注入Prompt

关键技术点

1)记忆抽取策略

不是所有信息都要记:

  • 设计决策(要)
  • bug 修复经验(要)
  • 临时调试输出(不要)

这是“信号 vs 噪音”的问题


2)压缩模型质量

压缩如果做不好:

  • 会丢关键上下文
  • 或引入错误总结

直接影响后续推理准确性


3)注入时机

不是每次都注入:

  • 过多 → 干扰推理
  • 过少 → 没价值

需要动态策略



四、和 OpenClaw / Claude Code 的区别

很多人会混淆这几类系统,其实是不同层:

组件
解决问题
核心能力
Claude Code
写代码
Agent执行
OpenClaw
多工具编排
Agent平台
claude-mem
记忆能力
长期上下文

可以这样理解:

Claude Code = 手
OpenClaw    = 身体
claude-mem  = 大脑记忆

五、能真正落地的场景

这类系统不是“看起来很强”,而是确实有几个高价值场景:


1)大型代码库协作

问题:

  • 每次都要解释架构

解决:

  • 自动记住:

    • 模块边界
    • 命名规范
    • 依赖关系

2)测试开发(重点)

你会明显受益:

  • 记住测试策略
  • 复用历史用例设计逻辑
  • 自动延续断言风格

本质是“测试经验被模型继承”


3)长期项目迭代

例如:

  • SaaS系统
  • 中后台平台
  • AI工具链

模型可以逐渐:

  • 理解业务语义
  • 记住设计权衡
  • 避免重复错误

4)个人开发助手

你会得到一个效果:

一个越来越像“你”的 AI


六、这类方案的边界(必须看)

1)记忆污染问题

错误信息一旦写入:

  • 会被持续引用
  • 甚至被强化

2)上下文偏置

过度依赖历史:

  • 会限制模型探索新解法
  • 导致“路径依赖”

3)安全问题

如果接入企业代码:

  • 记忆层 = 数据资产
  • 需要权限隔离与审计

4)成本问题

虽然压缩降低 token:

但新增:

  • 存储成本
  • 检索成本
  • 计算成本

七、一个更重要的趋势

这件事背后其实是一个更大的变化:

Agent 正在从“对话系统”,变成“持续学习系统”

未来的系统结构,大概率是:

LLM(推理)
+ Memory(记忆)
+ Tools(执行)
+ Workflow(编排)

结尾

如果说过去的 AI 是:

  • 聪明,但不记事

那么现在开始:

  • 不仅会做事
  • 还会记住你做过什么

这一步,决定了 Agent 能不能真正进入工程体系。


留个问题(评论区见)

你现在用 AI 写代码时:

  • 最大的问题是“不会写”
  • 还是“写完就忘”

或者说:

你更需要一个更强的模型,还是一个“不会忘的模型”?

【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。