精神点儿 别丢份儿 (@Anano)RampLabs提出多智能体记忆共享新方案,Token消耗最高降低65% 中发帖

AI 基础设施公司 Ramp Labs 发布研究成果「Latent Briefing」,通过直接压缩大模型 KV 缓存实现多智能体系统间的高效记忆共享,在不损失准确率的前提下大幅降低 Token 消耗。 
在主流多智能体架构中,编排者(Orchestrator)将任务拆解并反复调用工作者(Worker)模型,随着推理链路不断延伸,Token 用量呈指数级膨胀。Latent Briefing 的核心思路是:借助注意力机制识别上下文中真正关键的部分,在表示层直接丢弃冗余信息,而非依赖速度慢的 LLM 摘要或稳定性差的 RAG 检索。 
在 LongBench v2 基准测试中,该方法表现亮眼:Worker 模型 Token 消耗降低 65%,中等长度文档(32k 至 100k)的 Token 节省中位数达 49%,整体准确率较基线提升约 3 个百分点,而每次压缩的额外耗时仅约 1.7 秒,较原...
 
 
Back to Top