V神分享:我如何打造完全本地、隱密、自主可控的AI工作環境

CryptoCity

Vitalik Buterin 提出本地運行 AI 架構,強調隱私、安全與自我主權,並警示 AI Agent 潛在風險。

以太坊創辦人 Vitalik Buterin 4 月 2 日在個人網站發表長文,分享他以隱私、安全與自我主權為核心所打造的 AI 工作環境設置——所有 LLM 推論本地執行、所有檔案本地存放、全面沙箱化,刻意避開雲端模型與外部 API。

文章一開頭先警告:「請不要直接複製這篇文章描述的工具與技術,並假設它們是安全的。這只是一個起點,而不是完成品的描述。」

為何現在寫這篇?AI agent 的安全問題被嚴重低估

Vitalik 指出,今年初 AI 完成了從「聊天機器人」到「agent」的重要轉型——你不再只是問問題,而是交付任務,讓 AI 長時間思考、呼叫數百個工具來執行。他以 OpenClaw(目前 GitHub 史上成長最快的 repo)為例,同時點名研究人員記錄的多項安全問題:

  • AI agent 可在無需人工確認的情況下修改關鍵設定,包括添加新的通訊渠道與修改系統提示
  • 解析任何惡意外部輸入(如惡意網頁)都可能導致 agent 被完全接管;在 HiddenLayer 的一次示範中,研究員讓 AI 摘要一批網頁,其中藏了一個會命令 agent 下載並執行 shell 腳本的惡意頁面
  • 部分第三方技能包(skills)會執行靜默的資料外洩,透過 curl 指令將數據送往技能作者控制的外部伺服器
  • 在他們分析的技能包中,約 15% 包含惡意指令

Vitalik 強調,他對隱私的出發點不同於傳統資安研究者:「我來自一個對把個人生活完整餵給雲端 AI 感到深度恐懼的立場——就在端對端加密與本地優先軟體終於主流化、我們終於往前邁一步的時候,我們卻可能退後十步。」

五大安全目標

他設定了明確的安全目標框架:

  • LLM 隱私:在涉及個人隱私數據的情境中,盡量減少使用遠端模型
  • 其他隱私:最小化非 LLM 的數據洩露(如搜尋查詢、其他線上 API)
  • LLM 越獄:防止外部內容「駭入」我的 LLM,讓它違背我的利益(例如發送我的代幣或私人數據)
  • LLM 意外:防止 LLM 誤將私人數據發送至錯誤渠道或公開到網路
  • LLM 後門:防止被刻意訓練進模型的隱藏機制。他特別提醒:開放模型是開放權重(open-weights),幾乎沒有一個是真正開放原始碼(open-source)

硬體選擇:5090 筆電勝出,DGX Spark 令人失望

Vitalik 測試了三種本地推論硬體配置,主力使用 Qwen3.5:35B 模型,搭配 llama-server 與 llama-swap:

硬體 Qwen3.5 35B(tokens/sec) Qwen3.5 122B(tokens/sec)
NVIDIA 5090 筆電(24GB VRAM) 90 無法執行
AMD Ryzen AI Max Pro(128GB 統一記憶體,Vulkan) 51 18
DGX Spark(128GB) 60 22

他的結論是:低於 50 tok/sec 太慢,90 tok/sec 是理想。NVIDIA 5090 筆電體驗最流暢;AMD 目前仍有較多邊緣問題,但未來有望改善。高端 MacBook 也是有效選項,只是他個人沒有親試。

對 DGX Spark 他直言不客氣:「被描述為『桌面 AI 超級電腦』,但實際上 tokens/sec 比好的筆電 GPU 還低,而且還要額外搞定網路連接等細節——這很遜。」他的建議是:若負擔不起高端筆電,可以和朋友共同購入一台足夠強力的機器,放在有固定 IP 的地點,大家遠端連線使用。

為何本地 AI 的隱私問題比你想像的更緊迫

Vitalik 的這篇文章,與同日推出的Claude Code 安全問題討論形成有趣的呼應——AI agent 進入日常開發工作流的同時,安全性問題也正在從理論風險變成現實威脅。

他的核心訊息很清楚:在 AI 工具愈來愈強大、愈來愈能存取你的個人數據與系統權限的當下,「本地優先、沙箱化、最小信任」不是偏執,而是理性的起點。

  • 本文經授權轉載自:《鏈新聞》
  • 原文標題:《Vitalik:我如何打造完全本地、私密、自主可控的 AI 工作環境》
  • 原文作者:Elponcrab
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明

相關文章

NEA 探索在核能監管中使用人工智慧

NEA 新技術工作小組於 3 月 25--26 日召開了一場研討會,重點討論如何將人工智慧應用於核能主管機關的監管監督與內部營運。 摘要 NEA 研討會探討核能監管中的真實案例 AI 應用,並且

Cryptonews 1小時前

4月19日北京半程馬拉松將測試300+台人形機器人

北京第二屆機器人半程馬拉松將登場超過300台人形機器人,來自70支隊伍同場競技,賽程為21公里。活動著重展示自主移動方面的進展:其中40%能在不受控的情況下運作。儘管量產面臨挑戰,中國仍在自此人形機器人市場占據主導地位。

GateNews3小時前

美國尋求增加從納米比亞進口鈾,以供應由 AI 驅動的核電廠

美國正在考慮從納米比亞增加鈾進口,以支撐用於 AI 資料中心的核能供應,因為中國主導了納米比亞的鈾產業。隨著鈾價上漲,礦業興趣被重新點燃,儘管該乾旱地區的供水面臨挑戰。

GateNews3小時前

OpenAI 高層 Bill Peebles 與 Kevin Weil 在領導重整中離任

OpenAI 高層 Bill Peebles 與 Kevin Weil 宣布離職,這是公司在將營運去中心化之際一系列領導層變動的一部分。他們的離開是在數位其他備受矚目的高層相繼離任之後,同時也伴隨公司架構的調整。

GateNews4小時前

Zoom 與 World 合作新增結合臉部辨識的深度偽造偵測

Zoom 已與 Sam Altman 的 World 合作,推出一項功能,用於在視訊通話中辨識真實參與者與 AI 深度偽造。這旨在打擊日益猖獗的深度偽造詐欺,並提供主辦方與參與者的驗證選項。

GateNews5小時前

AI 生成的錯誤回報淹沒 cURL 維護團隊

由 AI 生成的錯誤回報正在淹沒 cURL 專案,提交量顯著上升,導致資源承壓。維護者正在透過限制 AI 模型存取,並暫停漏洞獎勵計畫來因應湧入的情況。

GateNews5小時前
留言
0/400
暫無留言