"MOMO V2"的搜尋結果
2026-04-11
05:14
1

Ramp Labs 提出多智能體記憶共享新方案,Token 消耗最高降低 65%

Ramp Labs 發布的研究成果「Latent Briefing」透過壓縮大模型 KV 快取,實現多智能體系統高效記憶共享,降低 Token 消耗並提高準確率。在 LongBench v2 測試中,該方法成功減少 Worker 模型 Token 消耗 65%,且提升整體準確率約 3 個百分點,壓縮耗時僅為 1.7 秒。這項技術在不同文件情境下表現優異。
展開