
Віталік Бутерін запропонував архітектуру ШІ, що працює локально, наголошуючи на конфіденційності, безпеці та самостійному контролі, і попередив про потенційні ризики для AI Agent.
Засновник Ethereum Віталік Бутерін 2 квітня на своєму персональному сайті опублікував довгий допис, де розповів про налаштування свого AI-середовища, побудованого з фокусом на конфіденційність, безпеку та самостійному контролі — у ньому всі LLM-обчислення виконуються локально, всі файли зберігаються локально, середовище повністю ізольоване в пісочниці (sandbox), і спеціально уникаються хмарні моделі та зовнішні API.
На початку статті він спершу попереджає: «Будь ласка, не копіюйте інструменти та технології, описані в цій статті, і не припускайте, що вони безпечні. Це лише відправна точка, а не опис готового продукту».
Чому зараз він пише про це? Проблеми безпеки AI agent недооцінені
Віталік зазначив, що на початку цього року AI здійснив важливий перехід від «чат-ботів» до «agent». Тепер вам не просто відповідають на питання — ви ставите завдання, а ШІ довго обмірковує, викликає сотні інструментів для виконання. Він навів приклад OpenClaw (зараз — репозиторій із найшвидшим зростанням в історії GitHub) і водночас назвав кілька безпекових проблем, зафіксованих дослідниками:
- AI agent може змінювати критичні налаштування без підтвердження людиною, зокрема додавати нові канали зв’язку та змінювати системні підказки (system prompts)
- Розбір будь-яких шкідливих зовнішніх вхідних даних (наприклад, зловмисних вебсторінок) може призвести до повного захоплення agent; у демонстрації HiddenLayer дослідник змусив AI узагальнити набір вебсторінок, у якому була одна шкідлива сторінка, що віддавала команду agent завантажити і виконати shell-скрипт
- Частина сторонніх навичок (skills) може виконувати тиху (без явного сигналу) витік інформації з даних, відправляючи дані через команду curl на зовнішній сервер, який контролює автор навички
- У навичках, які вони проаналізували, приблизно 15% містять зловмисні інструкції
Віталік наголосив, що його позиція щодо конфіденційності відрізняється від підходу традиційних дослідників із кібербезпеки: «Я прийшов з позиції, глибоко наляканої тим, що персональне життя повністю потрапляє в хмарні AI. Саме коли з’явився, нарешті, енд-ту-енд шифрування та локально-орієнтоване програмне забезпечення стало масовим — коли ми, здається, зробили крок уперед, — ми, можливо, робимо десять кроків назад».
П’ять цілей безпеки
Він встановив чітку рамку цілей безпеки:
- Конфіденційність LLM: у сценаріях, пов’язаних із персональними конфіденційними даними, максимально зменшувати використання віддалених моделей
- Інша конфіденційність: мінімізувати витік даних, які не є LLM (наприклад, пошукові запити, інші онлайн API)
- Утечка (jailbreak) LLM: запобігати тому, щоб зовнішній контент «зламав» мій LLM, змусивши його діяти всупереч моїм інтересам (наприклад, відправити мої токени або приватні дані)
- Непередбачуване: запобігати тому, щоб LLM помилково відправив приватні дані не туди або опублікував їх у мережі
- LLM-бекдор (backdoor): запобігати наявності прихованих механізмів, спеціально навчених у модель. Він особливо зауважив: відкриті моделі — це відкриті ваги (open-weights), і майже жодна з них не є справді відкритим вихідним кодом (open-source)
Вибір апаратного забезпечення: 5090 ноутбук перемагає, DGX Spark розчаровує
Віталік протестував три конфігурації локального виведення (inference). Основною моделлю він використовував Qwen3.5:35B, разом із llama-server та llama-swap:
| Апаратне забезпечення |
Qwen3.5 35B (tokens/sec) |
Qwen3.5 122B (tokens/sec) |
| NVIDIA 5090 ноутбук (24GB VRAM) |
90 |
неможливо виконати |
| AMD Ryzen AI Max Pro (128GB уніфікованої пам’яті, Vulkan) |
51 |
18 |
| DGX Spark (128GB) |
60 |
22 |
Його висновок такий: менше ніж 50 tok/sec — занадто повільно, 90 tok/sec — ідеально. Досвід із NVIDIA 5090 ноутбуком — найплавніший; AMD наразі все ще має більше прикордонних (edge) проблем, але в майбутньому є надія, що це покращиться. Преміальні MacBook також є робочим варіантом, але особисто він їх не тестував.
Щодо DGX Spark він сказав напряму без жодних церемоній: «Його описують як “настільний AI суперкомп’ютер”, але на практиці tokens/sec нижчий, ніж у кращих ноутбучних GPU, і ще треба окремо розібратися з підключенням до мережі та іншими деталями — це дуже невдало». Його порада така: якщо ви не можете дозволити собі висококласний ноутбук, можна купити достатньо потужну машину разом із друзями, поставити її в місці з фіксованим IP, а всім під’єднуватися віддалено (remote) і користуватися нею.
Чому проблеми конфіденційності локального AI є більш нагальними, ніж ви думаєте
Цей допис Віталіка перекликається з обговоренням безпекових питань Claude Code, який вийшов у той самий день — у той час як AI agent входить у щоденний робочий процес розробки, проблеми безпеки також переходять від теоретичних ризиків до реальних загроз.
Його головне повідомлення дуже чітке: «Коли AI-інструменти стають дедалі потужнішими й дедалі більше здатні отримувати доступ до ваших персональних даних і системних повноважень, “локально-орієнтований підхід, ізоляція в пісочниці та мінімальна довіра” — це не параноя, а раціональна відправна точка».
- Цей матеріал відтворено за ліцензією з: «鏈新聞»
- Оригінальний заголовок: «Vitalik:我如何打造完全本地、私密、自主可控的 AI 工作環境》
- Автор оригіналу: Elponcrab
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до
Застереження.
Пов'язані статті
Реклама ChatGPT виходить на ринок Австралії та Нової Зеландії: для користувачів Free і Go — спочатку доступ, платні плани зберігають режим без реклами
OpenAI 2023年4月17日 розширила рекламу ChatGPT до Австралії, Нової Зеландії та Канади, орієнтуючись на користувачів Free і Go; для платних користувачів реклами немає. Це є сигналом другого шляху комерціалізації ШІ та враховує комерційні й регуляторні ризики, водночас поява реклами може сприяти переходу на платну підписку.
ChainNewsAbmedia46хв. тому
Hyundai Motor Group реорганізується навколо ШІ та робототехніки, орієнтир: 30,000 роботів Atlas до 2030 року
Hyundai Motor Group проводить реструктуризацію, щоб зосередитися на ШІ та робототехніці, скорочуючи традиційні напрямки роботи. Компанія планує інвестувати $34.3 мільярда в робототехніку до 2030 року та має намір запустити модель robotics-as-a-service, співпрацюючи з Google DeepMind і NVIDIA.
GateNews3год тому
NEA досліджує використання штучного інтелекту в ядерному регулюванні
Робоча група NEA з нових технологій скликала практичний семінар 25--26 березня, зосередившись на тому, як штучний інтелект можна застосувати для регуляторного нагляду та внутрішніх операцій у ядерних органах влади.
Резюме
Практичний семінар NEA розглянув прикладні застосування ШІ в ядерному регулюванні, з
Cryptonews6год тому
Китай випробує понад 300 гуманоїдних роботів у півмарафоні в Пекіні 19 квітня
У другому робо-півмарафоні в Пекіні візьмуть участь понад 300 гуманоїдних роботів із 70 команд, які змагатимуться на дистанції 21 км. Акцент зроблено на прогресі в автономному русі: 40% працюють без керування. Китай домінує на ринку гуманоїдних роботів, попри виробничі труднощі.
GateNews9год тому
США прагнуть збільшити імпорт урану з Намібії, щоб живити атомні станції для ШІ
Сполучені Штати розглядають збільшення імпорту урану з Намібії, щоб забезпечувати ядерну енергетику для центрів обробки даних під потреби ШІ, оскільки Китай домінує в урановому секторі Намібії. Зростання цін на уран відновлює інтерес до видобутку, попри проблеми з постачанням води в посушливому регіоні.
GateNews9год тому
Керівники OpenAI Білл Піблз і Кевін Вейл залишають посади під час реорганізації управління
Керівники OpenAI Білл Піблз і Кевін Вейл оголосили про своє звільнення; це частина низки кадрових змін керівництва, оскільки компанія децентралізує свою роботу. Їхні відходи відбулися після кількох інших гучних звільнень і зміни структури компанії.
GateNews10год тому