根據 Ollama 官方 4 月 27 日推文,由中國 AI 公司 DeepSeek 於 4 月 24 日發布的旗艦模型 DeepSeek V4 Pro,正式以雲端模式進駐 Ollama 官方目錄,使用者只需一行指令即可從 Claude Code、Hermes Agent、OpenClaw、Codex、OpenCode 等主流 agent 工具呼叫該模型。這是 Ollama 整合主流大模型最快速的一次同步—從 DeepSeek 釋出權重到 Ollama Cloud 上線,僅相隔三天。
DeepSeek V4 Pro:1.6T 參數、1M context
V4 Pro 採 Mixture-of-Experts 架構,總參數規模 1.6 兆(49 億活躍參數),上下文窗口 1M token。第三方基準 Artificial Analysis 指出,V4 Pro 在 SWE-bench(80.6%)、LiveCodeBench(93.5%)、Terminal-Bench(67.9%)等程式編寫基準上與 Kimi K2.6 並列開源模型前段班,整體 Intelligence Index 落後 Kimi K2.6 一個身位。
同期 DeepSeek 也釋出較輕量的 V4 Flash 模型,兩者皆採 MIT 授權開源,可從 Hugging Face 下載權重。
Ollama Cloud 雲端推論、權重不下載本機
deepseek-v4-pro:cloud 為 Ollama Cloud 模型—推論在 Ollama 雲端進行、權重不下載到使用者本機。這是 Ollama 處理超大模型的標準作法,先前 Kimi K2.6 也採同樣方式收錄。對使用者而言,最大優勢是不需自備數十張 GPU 即可呼叫旗艦級模型;缺點是仍需網路連線,並依 Ollama 雲端負載分配運算資源。
若要完全本地執行,須自 Hugging Face 取得 deepseek-ai/DeepSeek-V4-Pro 權重,搭配 INT4 量化版本(如 Unsloth 釋出的 GGUF)與多卡 GPU 配置才有可行性。一般消費級硬體不足以承載完整模型。
一行指令串接 Claude Code、Hermes Agent、OpenClaw
Ollama 同步釋出對主流 agent 工具的整合 launcher 指令:
直接對話 ollama run deepseek-v4-pro:cloud # 串接 Claude Code ollama launch claude --model deepseek-v4-pro:cloud # 串接 Hermes Agent ollama launch hermes --model deepseek-v4-pro:cloud # 串接 OpenClaw / OpenCode / Codex ollama launch openclaw --model deepseek-v4-pro:cloud ollama launch opencode --model deepseek-v4-pro:cloud ollama launch codex --model deepseek-v4-pro:cloud
意義在於:開發者過去在 Claude Code 內若想換用 DeepSeek,需透過 OpenAI 相容 API 自行串接、處理 endpoint 與認證;現在透過 Ollama 一行指令即可完成。對 Claude Code 重度使用者而言,這提供了一條把 Anthropic 模型替換為 DeepSeek(或同理可換 Kimi)以降低成本的快速路徑。
早期測試者反應:速度從 30 tok/s 到尖峰 1.1 tok/s
推文下方社群討論顯示,雲端推論的速度視 Ollama 雲端負載而異。多位早期測試者回報尖峰時段速度偏慢,從常態 30 tokens/s 降至 1.1 tokens/s 級別,使用者 @benvargas 直接貼出截圖抱怨「Need More Compute」。Ollama 在另一條回覆中坦承官方團隊「也在玩這個模型」,意指流量仍處於探索期,尚未做完整的容量規劃。
對追求穩定產線速度的開發者,目前的建議是:用雲端模式作為原型測試與成本評估,正式產品仍需自建 GPU 推論設施或選擇商用 API。Ollama 完整教學已同步補上 V4 Pro 條目與雲端/本地的取捨說明。
這篇文章 DeepSeek V4 Pro 上 Ollama Cloud:Claude Code 一鍵串接 最早出現於 鏈新聞 ABMedia。
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見
聲明。
相關文章
AI 代理推动加密支付需求,x402 处理 165M 笔交易
Gate News 消息,4 月 27 日——大型 CEX 的高管 Jesse Pollak 表示,自主 AI 代理正在为加密支付创造一个新的 "需求中心",从而需要原生于软件的支付基础设施。4 月 20 日,据宣布 x402 生态系统已处理超过 165
GateNews1小時前
Cursor AI 代理出包!一行程式碼 9 秒清空公司資料庫,安全把關淪空談
PocketOS 創辦人 Jer Crane 指 Cursor AI 代理在測試環境自行執行維護,濫用一個新增/移除自訂網域的 API Token,向 Railway 的 GraphQL API 發動刪除指令。9 秒內資料與同區快照全毀,最新可還原到三個月前。代理人承認違反不可逆操作、未研讀技術文件、未驗證環境隔離等規範,受害者為租車業客戶,預約與資料全消失,對帳工程耗時長。Crane 提出五項改革:人工確認、細粒度 API 權限、備份與主資料分離、公開 SLA、底層強制機制。
鏈新聞abmedia1小時前
阿里巴巴PAI發布開源 AgenticQwen 模型:8B 版本通過雙數據飛輪接近 235B 性能
門戶消息,4月27日——阿里巴巴PAI團隊已發布並開源了 AgenticQwen,一款面向工業級工具調用應用的小規模代理式語言模型。該模型提供兩個版本:8B 與 30B-A3B。透過一種創新的 "雙數據飛輪"
GateNews1小時前
UB(Unibase)24 小時上漲 14.96%
Gate 新聞消息,4 月 27 日,根據 Gate 行情顯示,截至發稿時,UB(Unibase)現報 0.0491 美元,24 小時內上漲 14.96%,最高觸及 0.0534 美元,最低回落至 0.0423 美元,24 小時交易量達 396.67 萬美元。目前市值約為 1.23 億美元。
Unibase 是一個高性能去中心化 AI 記憶層,為 AI 代理提供長期記憶和跨平台互操作性,使其能夠記憶、協作與自我進化。Unibase 旨在構建開放代理互聯網,支援智慧代理在生態系之間無縫協作,賦能開發者打造下一代 AI 應用。
此消息不作為投資建議,投資需注意市場波動風險。
GateNews2小時前
郭明錤:OpenAI 要做 AI Agent 手機,聯發科、高通、立訊成關鍵供應鏈
郭明錤指稱 OpenAI 正與聯發科、高通、立訊精密合作開發 AI Agent 手機,預計 2028 年量產。新手機將以任務完成為核心,由 AI 代理理解並執行需求,結合雲端與裝置端運算,重點在感測與情境理解。規格與供應鏈名單預計 2026–2027 年定案,若成形,或為高階市場帶來新換機週期,立訊有望成為主要受惠者。
鏈新聞abmedia2小時前
小米大模型負責人:AI 競爭轉向 Agent 時代,自進化是 AGI 關鍵事件
小米大模型團隊負責人羅福莉於 4 月 24 日在嗶哩嗶哩平台接受深度訪談(影片號:BV1iVoVBgERD),訪談時長 3.5 小時,為其首次以技術負責人身份公開系統性闡述技術觀點。羅福莉稱,大模型競爭賽道已從 Chat 時代轉入 Agent 時代,並指出「自進化」將是未來一年 AGI 關鍵事件。
Market Whisper3小時前