豆豆哥🌹 (@d914954480) 在 深度研究了下,发现Claude 上下文与长期记忆不适合国产ai 中发帖
一直感觉cc有时候没有那么强,国产ai没那么弱,但是就是cc挺好用,最近没事研究了下cc的泄漏源码,我发现
Claude cli的长期记忆,本质上仍然是“把记忆塞回上下文”。它没有真正跳出上下文窗口,只是在上下文窗口快爆炸时,用更复杂的摘要、更聪明的筛选、更贵的模型调用,继续维持这个旧范式。 所以claude更适合这套模型,在国产上下文注意没那么集中的用cc反而在一轮轮的压缩后降智(opus4.7也是同理),
Claude cli 的上下文更像一个临时工作台,里面同时堆着:
系统指令
用户当前请求
历史对话
工具定义
工具调用结果
文件片段
项目信息
环境信息
记忆文件
压缩摘要
会话状态
模型需要遵守的行为规则
这些东西最终都会进入同一个窗口。
这个窗口就是模型当前能“看见”的世界。
模型不知道窗口外发生了什么。窗口外的东西如果没有被重新召回、重新摘要...