
Віталік Бутерін запропонував архітектуру ШІ, що працює локально, наголошуючи на приватності, безпеці та самостійному контролі, і попередив про потенційні ризики для AI-агентів.
Засновник Ethereum Віталік Бутерін 2 квітня на своєму персональному сайті опублікував велику статтю, де розповів про налаштування свого робочого середовища для ШІ, побудованого навколо приватності, безпеки та самостійному контролі — усі LLM-обчислення виконуються локально, усі файли зберігаються локально, середовище повністю ізольоване в пісочниці; він навмисно уникає хмарних моделей та зовнішніх API.
На початку статті він спершу попереджає: «Будь ласка, не копіюйте інструменти та технології, які описані в цій статті, і не припускайте, що вони безпечні. Це лише точка старту, а не опис готового продукту».
Чому зараз він пише цю статтю? Проблеми безпеки AI agent суттєво недооцінені
Віталік зазначив, що на початку цього року ШІ зробив важливий перехід від «чат-ботів» до «агентів» — тепер вам не просто відповідають на запитання, а виконують завдання, змушуючи ШІ довго мислити, викликати сотні інструментів для реалізації. Він навів приклад OpenClaw (зараз це repo, яке найшвидше зростає в історії GitHub) і водночас назвав кілька проблем безпеки, зафіксованих дослідниками:
- AI-агент може змінювати критичні налаштування без потреби в ручному підтвердженні, зокрема додавати нові канали зв’язку та змінювати системні підказки
- Парсинг будь-якого шкідливого зовнішнього вводу (наприклад, зловмисних вебсторінок) може призвести до повного перехоплення agent; у демонстрації HiddenLayer дослідник змусив ШІ підсумувати добірку вебсторінок, серед яких була одна з інструкцією, яка наказувала agent завантажити й виконати shell-скрипт
- Частина сторонніх пакетів навичок (skills) може виконувати мовчазне витікання даних, надсилаючи їх через команду curl на зовнішній сервер, який контролює автор навички
- У пакетах навичок, які вони аналізували, приблизно 15% містили шкідливі інструкції
Віталік підкреслив, що його відправною точкою щодо приватності є інше, ніж у традиційних дослідників з кібербезпеки: «Я походжу з позиції, яка глибоко лякається того, що особисте життя повністю згодовується хмарному ШІ — саме тоді, коли наскрізне шифрування та локально-пріоритетне програмне забезпечення нарешті стають мейнстримом, ми, можливо, робимо крок назад на десять кроків».
П’ять цілей безпеки
Він встановив чітку рамку цілей безпеки:
- Приватність LLM: у ситуаціях, що стосуються персональних даних, максимально зменшувати використання віддалених моделей
- Інша приватність: мінімізувати витік даних, не пов’язаних із LLM (наприклад, пошукові запити, інші онлайн API)
- Втеча LLM: запобігати тому, щоб зовнішній контент «зламав» мій LLM і змусив його діяти всупереч моїм інтересам (наприклад, надсилати мої токени або приватні дані)
- Несподівано LLM: запобігати тому, щоб LLM випадково відправив приватні дані не в той канал або опублікував їх у мережі
- LLM backdoor: запобігати прихованим механізмам, спеціально натренованим у моделі. Він особливо наголосив: відкриті моделі — це відкриті ваги (open-weights), і майже жодна з них не є справді відкритим вихідним кодом (open-source)
Вибір обладнання: 5090 ноутбук перемагає, DGX Spark розчаровує
Віталік протестував три конфігурації обладнання для локального виведення (inference). Основний варіант — модель Qwen3.5:35B, у поєднанні з llama-server і llama-swap:
| Обладнання |
Qwen3.5 35B(tokens/sec) |
Qwen3.5 122B(tokens/sec) |
| NVIDIA 5090 ноутбук(24GB VRAM) |
90 |
неможливо виконати |
| AMD Ryzen AI Max Pro(128GB уніфікованої пам’яті, Vulkan) |
51 |
18 |
| DGX Spark(128GB) |
60 |
22 |
Його висновок: менше ніж 50 tok/sec занадто повільно, а 90 tok/sec — ідеально. NVIDIA 5090 ноутбук дає найплавніший досвід; AMD наразі ще має більше проблем із крайовими випадками, але в майбутньому є надія, що це покращать. Преміальний MacBook — теж дієвий варіант, але він особисто його не тестував.
Щодо DGX Spark він сказав без церемоній: «Його описують як “настільний AI суперкомп’ютер”, але на практиці tokens/sec нижчий, ніж у кращих GPU для ноутбуків, і ще треба додатково розв’язати деталі на кшталт підключення до мережі — це дуже невдало». Його рекомендація така: якщо ви не можете дозволити собі дорогий ноутбук, можна разом із друзями придбати достатньо потужну машину, поставити її в місці з фіксованою IP-адресою, а всі віддалено підключатимуться.
Чому проблеми приватності локального ШІ є нагальнішими, ніж ви думаєте
Ця стаття Віталіка перегукується з дискусією про безпеку Claude Code, яку оприлюднили того ж дня. Коли AI-агенти входять у повсякденний робочий процес розробки, проблеми безпеки також переходять від теоретичних ризиків до реальних загроз.
Його ключове повідомлення дуже чітке: у той час, коли AI-інструменти стають дедалі потужнішими й усе краще отримують доступ до ваших персональних даних та системних прав, «локальний пріоритет, ізоляція в пісочниці, мінімальна довіра» — це не параноя, а розумний старт.
- Цей матеріал відтворено за ліцензією з: «Ланцюг новин»
- Оригінальна назва: «Віталік: як я створив повністю локальне, приватне й кероване собою робоче середовище для ШІ»
- Автор оригіналу: Elponcrab
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до
Застереження.
Пов'язані статті
AI-генеровані звіти про помилки перевантажують команду супроводу cURL
AI-генеровані звіти про помилки перевантажують проєкт cURL: суттєво зросла кількість подань, що спричиняє ресурсне навантаження. Розробники відповідають тим, що обмежують доступ до AI-моделей і призупиняють програми винагород за вразливості, щоб упоратися з припливом.
GateNews2хв. тому
xAI запускає API Grok Speech-to-Text і Text-to-Speech
xAI запустила API для перетворення мовлення на текст і тексту на мовлення для своєї платформи Grok, даючи розробникам можливість вбудовувати природні голосові взаємодії в застосунки. Це оновлення покращує користувацький досвід і доступність для різних сценаріїв використання.
GateNews22хв. тому
Cursor піднімає $2B на основі оцінки $50B , очоленої Thrive Capital
Cursor, стартап з розробки коду за допомогою ШІ, має намір залучити щонайменше $2 мільярда при оцінці в $50 мільярда, яку очолюють Thrive Capital та Andreessen Horowitz. Компанія прагне понад $6 мільярда виручки до 2026 року та вирізняється поетапною моделлю ціноутворення і сертифікацією SOC 2 Type 2.
CryptoFrontier22хв. тому
Iconiq Wealth Manager Готується Залучити Мільярди для Нового Фонду під Інвестиції в ШІ
Iconiq, керуючий капіталом із Сан-Франциско, планує залучити новий фонд, сфокусований на інвестиціях в ШІ, раніше вже інвестувавши понад $3 мільярда у стартапи зі сфери ШІ у 2025 році. Інвесторська база компанії змістилася в бік більшої кількості інституційних підтримок, і нещодавно вона зробила шість нових інвестицій в ШІ.
GateNews32хв. тому
Anthropic отримує майже 120 000 заяв від авторів у $1,5 млрд угоді про авторське право
Майже 120 000 авторів заявили про частку в угоді Anthropic на $1,5 млрд через несанкціоноване використання книг під час навчання ШІ. Угода, що стала наслідком порушень авторського права, викликає занепокоєння щодо справедливої конкуренції в індустрії ШІ.
GateNews42хв. тому
Майк Крігер з Anthropic йде у відставку з ради Figma
Головний директор із продуктів Anthropic Майк Крігер подав у відставку з ради Figma; компанія заявила, що відхід не був пов’язаний із жодними внутрішніми розбіжностями. Його відставка відбулася після партнерства між Figma та Anthropic, щоб інтегрувати AI-дизайнерів-помічників.
GateNews52хв. тому