Віталік Бутерін ділиться: як я створив повністю локальне, конфіденційне та самокероване середовище для роботи з ШІ

Віталік Бутерін запропонував архітектуру ШІ, що працює локально, наголошуючи на приватності, безпеці та самостійному контролі, і попередив про потенційні ризики для AI-агентів.

Засновник Ethereum Віталік Бутерін 2 квітня на своєму персональному сайті опублікував велику статтю, де розповів про налаштування свого робочого середовища для ШІ, побудованого навколо приватності, безпеки та самостійному контролі — усі LLM-обчислення виконуються локально, усі файли зберігаються локально, середовище повністю ізольоване в пісочниці; він навмисно уникає хмарних моделей та зовнішніх API.

На початку статті він спершу попереджає: «Будь ласка, не копіюйте інструменти та технології, які описані в цій статті, і не припускайте, що вони безпечні. Це лише точка старту, а не опис готового продукту».

Чому зараз він пише цю статтю? Проблеми безпеки AI agent суттєво недооцінені

Віталік зазначив, що на початку цього року ШІ зробив важливий перехід від «чат-ботів» до «агентів» — тепер вам не просто відповідають на запитання, а виконують завдання, змушуючи ШІ довго мислити, викликати сотні інструментів для реалізації. Він навів приклад OpenClaw (зараз це repo, яке найшвидше зростає в історії GitHub) і водночас назвав кілька проблем безпеки, зафіксованих дослідниками:

  • AI-агент може змінювати критичні налаштування без потреби в ручному підтвердженні, зокрема додавати нові канали зв’язку та змінювати системні підказки
  • Парсинг будь-якого шкідливого зовнішнього вводу (наприклад, зловмисних вебсторінок) може призвести до повного перехоплення agent; у демонстрації HiddenLayer дослідник змусив ШІ підсумувати добірку вебсторінок, серед яких була одна з інструкцією, яка наказувала agent завантажити й виконати shell-скрипт
  • Частина сторонніх пакетів навичок (skills) може виконувати мовчазне витікання даних, надсилаючи їх через команду curl на зовнішній сервер, який контролює автор навички
  • У пакетах навичок, які вони аналізували, приблизно 15% містили шкідливі інструкції

Віталік підкреслив, що його відправною точкою щодо приватності є інше, ніж у традиційних дослідників з кібербезпеки: «Я походжу з позиції, яка глибоко лякається того, що особисте життя повністю згодовується хмарному ШІ — саме тоді, коли наскрізне шифрування та локально-пріоритетне програмне забезпечення нарешті стають мейнстримом, ми, можливо, робимо крок назад на десять кроків».

П’ять цілей безпеки

Він встановив чітку рамку цілей безпеки:

  • Приватність LLM: у ситуаціях, що стосуються персональних даних, максимально зменшувати використання віддалених моделей
  • Інша приватність: мінімізувати витік даних, не пов’язаних із LLM (наприклад, пошукові запити, інші онлайн API)
  • Втеча LLM: запобігати тому, щоб зовнішній контент «зламав» мій LLM і змусив його діяти всупереч моїм інтересам (наприклад, надсилати мої токени або приватні дані)
  • Несподівано LLM: запобігати тому, щоб LLM випадково відправив приватні дані не в той канал або опублікував їх у мережі
  • LLM backdoor: запобігати прихованим механізмам, спеціально натренованим у моделі. Він особливо наголосив: відкриті моделі — це відкриті ваги (open-weights), і майже жодна з них не є справді відкритим вихідним кодом (open-source)

Вибір обладнання: 5090 ноутбук перемагає, DGX Spark розчаровує

Віталік протестував три конфігурації обладнання для локального виведення (inference). Основний варіант — модель Qwen3.5:35B, у поєднанні з llama-server і llama-swap:

Обладнання Qwen3.5 35B(tokens/sec) Qwen3.5 122B(tokens/sec)
NVIDIA 5090 ноутбук(24GB VRAM) 90 неможливо виконати
AMD Ryzen AI Max Pro(128GB уніфікованої пам’яті, Vulkan) 51 18
DGX Spark(128GB) 60 22

Його висновок: менше ніж 50 tok/sec занадто повільно, а 90 tok/sec — ідеально. NVIDIA 5090 ноутбук дає найплавніший досвід; AMD наразі ще має більше проблем із крайовими випадками, але в майбутньому є надія, що це покращать. Преміальний MacBook — теж дієвий варіант, але він особисто його не тестував.

Щодо DGX Spark він сказав без церемоній: «Його описують як “настільний AI суперкомп’ютер”, але на практиці tokens/sec нижчий, ніж у кращих GPU для ноутбуків, і ще треба додатково розв’язати деталі на кшталт підключення до мережі — це дуже невдало». Його рекомендація така: якщо ви не можете дозволити собі дорогий ноутбук, можна разом із друзями придбати достатньо потужну машину, поставити її в місці з фіксованою IP-адресою, а всі віддалено підключатимуться.

Чому проблеми приватності локального ШІ є нагальнішими, ніж ви думаєте

Ця стаття Віталіка перегукується з дискусією про безпеку Claude Code, яку оприлюднили того ж дня. Коли AI-агенти входять у повсякденний робочий процес розробки, проблеми безпеки також переходять від теоретичних ризиків до реальних загроз.

Його ключове повідомлення дуже чітке: у той час, коли AI-інструменти стають дедалі потужнішими й усе краще отримують доступ до ваших персональних даних та системних прав, «локальний пріоритет, ізоляція в пісочниці, мінімальна довіра» — це не параноя, а розумний старт.

  • Цей матеріал відтворено за ліцензією з: «Ланцюг новин»
  • Оригінальна назва: «Віталік: як я створив повністю локальне, приватне й кероване собою робоче середовище для ШІ»
  • Автор оригіналу: Elponcrab
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

AI-генеровані звіти про помилки перевантажують команду супроводу cURL

AI-генеровані звіти про помилки перевантажують проєкт cURL: суттєво зросла кількість подань, що спричиняє ресурсне навантаження. Розробники відповідають тим, що обмежують доступ до AI-моделей і призупиняють програми винагород за вразливості, щоб упоратися з припливом.

GateNews2хв. тому

xAI запускає API Grok Speech-to-Text і Text-to-Speech

xAI запустила API для перетворення мовлення на текст і тексту на мовлення для своєї платформи Grok, даючи розробникам можливість вбудовувати природні голосові взаємодії в застосунки. Це оновлення покращує користувацький досвід і доступність для різних сценаріїв використання.

GateNews22хв. тому

Cursor піднімає $2B на основі оцінки $50B , очоленої Thrive Capital

Cursor, стартап з розробки коду за допомогою ШІ, має намір залучити щонайменше $2 мільярда при оцінці в $50 мільярда, яку очолюють Thrive Capital та Andreessen Horowitz. Компанія прагне понад $6 мільярда виручки до 2026 року та вирізняється поетапною моделлю ціноутворення і сертифікацією SOC 2 Type 2.

CryptoFrontier22хв. тому

Iconiq Wealth Manager Готується Залучити Мільярди для Нового Фонду під Інвестиції в ШІ

Iconiq, керуючий капіталом із Сан-Франциско, планує залучити новий фонд, сфокусований на інвестиціях в ШІ, раніше вже інвестувавши понад $3 мільярда у стартапи зі сфери ШІ у 2025 році. Інвесторська база компанії змістилася в бік більшої кількості інституційних підтримок, і нещодавно вона зробила шість нових інвестицій в ШІ.

GateNews32хв. тому

Anthropic отримує майже 120 000 заяв від авторів у $1,5 млрд угоді про авторське право

Майже 120 000 авторів заявили про частку в угоді Anthropic на $1,5 млрд через несанкціоноване використання книг під час навчання ШІ. Угода, що стала наслідком порушень авторського права, викликає занепокоєння щодо справедливої конкуренції в індустрії ШІ.

GateNews42хв. тому

Майк Крігер з Anthropic йде у відставку з ради Figma

Головний директор із продуктів Anthropic Майк Крігер подав у відставку з ради Figma; компанія заявила, що відхід не був пов’язаний із жодними внутрішніми розбіжностями. Його відставка відбулася після партнерства між Figma та Anthropic, щоб інтегрувати AI-дизайнерів-помічників.

GateNews52хв. тому
Прокоментувати
0/400
Немає коментарів