✍️ Gate 廣場「創作者認證激勵計劃」進行中!
我們歡迎優質創作者積極創作,申請認證
贏取豪華代幣獎池、Gate 精美周邊、流量曝光等超過 $10,000+ 豐厚獎勵!
立即報名 👉 https://www.gate.com/questionnaire/7159
📕 認證申請步驟:
1️⃣ App 首頁底部進入【廣場】 → 點擊右上角頭像進入個人主頁
2️⃣ 點擊頭像右下角【申請認證】進入認證頁面,等待審核
讓優質內容被更多人看到,一起共建創作者社區!
活動詳情:https://www.gate.com/announcements/article/47889
大模型還在拼參數,但真正開始卡行業天花板的,已經變成了另一件事:上下文存儲。
當推理長度、Agent 調用鏈、長期記憶都在變長,真正決定體驗和成本的,不只是算力,而是“上下文能不能被高效讀寫、調度和復用”。這也是為什麼最近市場開始把注意力轉向 Context Memory、KV Cache、推理存儲分層這類基礎設施。
下一階段 AI 競爭,拼的可能不是誰會生成更多內容,而是誰能讓模型在更長任務裡,穩定、低成本地持續工作。
如果說訓練時代拼的是 GPU,那 Agent 時代,拼的就是 Memory。
這也是我在一個群裡跟群友討論為什麼龍蝦值得去玩,我說 Claude code 都是針對龍蝦去打的。但他們說全量上下文這個事情,我竟然無言以對,老老實實又認真養蝦。