V神が共有:完全にローカルで、プライバシーが高く、自主的に制御できるAI作業環境をどのように構築するか

Vitalik Buterin はローカルで動作する AI のアーキテクチャを提案し、プライバシー、安全性、自主主権を強調するとともに、AI Agent の潜在的なリスクを警告しています。

イーサリアムの創設者 Vitalik Buterin は4月2日、個人サイトで長文を公開し、プライバシー、安全性、自主主権を中核に据えて構築した AI の作業環境設定を共有しました――すべての LLM 推論をローカルで実行し、すべてのファイルをローカルに保存し、全面的にサンドボックス化し、クラウドのモデルや外部 API を意図的に避けています。

記事の冒頭でまず次のように警告しています。「この記事で説明されているツールや技術をそのままコピーして、そのまま安全だと仮定しないでください。これは出発点であって、完成品の説明ではありません。」

なぜ今この文章を書いているのか?AI agent の安全問題が深刻に過小評価されている

Vitalik は、今年初めに AI が「チャットボット」から「agent」への重要な転換を遂げたと指摘しました――もはや単に質問に答えるだけではなく、タスクを引き受け、AI が長時間考え、数百ものツールを呼び出して実行するようになったのです。彼は OpenClaw(現在 GitHub 上で成長が最速の repo)を例に挙げ、研究者が記録した複数の安全上の問題も挙げています:

  • AI agent は、人の確認なしに重要な設定を変更できる。新しい通信チャネルの追加やシステムプロンプトの変更まで含まれる
  • どんな悪意ある外部入力(たとえば悪意のある Web ページ)でも解析すると、agent が完全に乗っ取られる可能性があります。HiddenLayer のあるデモでは、研究員が AI に一連の Web ページを要約させると、その中に agent にダウンロードしてシェルスクリプトを実行させる悪意のあるページが紛れていた
  • 一部のサードパーティ製スキルパッケージ(skills)は、静かにデータを外部へ漏えいし、curl コマンドを通じて、スキル作者が制御する外部サーバーへデータを送信する
  • 彼らが分析したスキルパッケージのうち約 15% が悪意のある指示を含んでいる

Vitalik は、プライバシーに対する彼の出発点は従来の資安(セキュリティ)研究者とは異なると強調しました。「私は、個人の生活のすべてをクラウド上の AI に丸ごと与えてしまうことに、強い恐怖を感じる立場出身です――エンドツーエンド暗号化とローカル優先のソフトウェアがついに主流化し、ようやく一歩前進したはずのときに、私たちは逆に十歩後退する可能性があるのです。」

五つの安全目標

彼は明確な安全目標の枠組みを設定しました:

  • LLM プライバシー:個人のプライバシー情報が関係する状況では、可能な限り遠隔のモデルの利用を減らす
  • その他のプライバシー:LLM 以外のデータ漏えいを最小化する(例:検索クエリ、その他のオンライン API)
  • LLM 脱獄:外部コンテンツが「ハッキング」して私の LLM を侵害し、私の利益(たとえば私のトークンやプライベートなデータの送信)に反する行動を取らせないようにする
  • LLM 不用意:LLM が誤ってプライベートなデータを誤った経路へ送信したり、ネットワーク上に公開したりしないようにする
  • LLM バックドア:意図的にモデルへ学習させ込まれた隠れた仕組みによって乗っ取られないようにする。彼は特に次の点を注意しています――オープンモデルはオープンな重み(open-weights)であり、真にオープンソース(open-source)だと言えるものはほとんどない

ハードウェアの選択:5090 ノートが勝ち、DGX Spark は残念

Vitalik は3種類のローカル推論用ハードウェア構成をテストし、主力として Qwen3.5:35B モデルを使用し、llama-server と llama-swap を組み合わせました。

ハードウェア Qwen3.5 35B(tokens/sec) Qwen3.5 122B(tokens/sec)
NVIDIA 5090 ノートPC(24GB VRAM) 90 実行できない
AMD Ryzen AI Max Pro(128GB の統一メモリ、Vulkan) 51 18
DGX Spark(128GB) 60 22

彼の結論はこうです――50 tok/sec 未満は遅すぎ、90 tok/sec が理想。NVIDIA 5090 ノートPCの体験が最もスムーズです。AMD は現時点でまだ境界付近の問題が多いものの、将来的には改善が見込めます。高性能 MacBook も有効な選択肢ですが、彼自身は個人的に試していません。

DGX Spark について彼はかなり率直にこう言っています。「『デスクトップ AI のスーパーコンピュータ』だと説明されているけど、実際には tokens/sec が良いノートPCの GPU より低く、それに加えてネットワーク接続などの細部も追加で片付けないといけない――これはひどい。」彼の提案はこうです――高性能ノートを買う余裕がないなら、十分に強力なマシンを友人と共同購入し、固定 IP がある場所に置いて、皆で遠隔接続して使うとよい、というものです。

なぜローカル AI のプライバシー問題は、あなたが想像するよりも切迫しているのか

Vitalik のこの記事は、同日にリリースされた Claude Code の安全性問題に関する議論と、興味深い呼応関係を作っています――AI agent が日常の開発ワークフローに入り込んでいく一方で、安全性の問題も、理論上のリスクから現実の脅威へと変わりつつあるのです。

彼の核心メッセージはとても明確です。AI ツールがますます強力になり、あなたの個人データやシステム権限へアクセスできるようになっていく現在において、「ローカル優先、サンドボックス化、最小限の信頼」は偏執ではなく、合理的な出発点なのです。

  • 本文は「鏈新聞」より許可を得て転載されています
  • 原文タイトル:「Vitalik:我如何打造完全本地、私密、自主可控的 AI 工作環境」
  • 原文著者:Elponcrab
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし