"TOKEN"的搜尋結果
今天
05:14
1

Ramp Labs 提出多智能體記憶共享新方案,Token 消耗最高降低 65%

Ramp Labs 發布的研究成果「Latent Briefing」透過壓縮大模型 KV 快取,實現多智能體系統高效記憶共享,降低 Token 消耗並提高準確率。在 LongBench v2 測試中,該方法成功減少 Worker 模型 Token 消耗 65%,且提升整體準確率約 3 個百分點,壓縮耗時僅為 1.7 秒。這項技術在不同文件情境下表現優異。
展開
02:21

谷歌發布多模態模型 Gemma 4,支援 140 多種語言

Google 於 4 月 3 日發布多模態模型 Gemma 4,支援文字、圖片和音訊輸入,並生成文字輸出。其上下文視窗可容納 25.6 萬個 token,支援 140 種語言,且適用於多種情境,包括四種不同規模的模型。
展開