
Виталик Бутерин предложил архитектуру ИИ для локального запуска, подчеркнув конфиденциальность, безопасность и самосуверенитет, а также предупредил о потенциальных рисках AI-агентов.
Основатель Ethereum Виталик Бутерин 2 апреля опубликовал на своем персональном сайте длинный пост, в котором поделился настройкой своей рабочей среды для ИИ, построенной с фокусом на конфиденциальность, безопасность и самосуверенитет: все выводы LLM выполняются локально, все файлы хранятся локально, среда полностью изолирована в песочнице; он намеренно обходит облачные модели и внешние API.
В начале статьи он сначала предупреждает: «Пожалуйста, не копируйте инструменты и технологии, описанные в этой статье, и не предполагайте, что они безопасны. Это лишь отправная точка, а не описание готового продукта».
Почему сейчас он пишет об этом? Проблемы безопасности AI-агентов сильно недооценены
Виталик указывает, что в начале этого года ИИ совершил важный переход от «чат-ботов» к «агентам»: теперь вы не просто задаете вопросы, а поручаете задачи, заставляя ИИ долго размышлять и вызывать сотни инструментов для выполнения. Он приводит в пример OpenClaw (repo, который сейчас растет быстрее всего за всю историю GitHub) и одновременно называет несколько проблем безопасности, зафиксированных исследователями:
- AI-агент может изменять критически важные настройки без подтверждения человеком, включая добавление новых каналов связи и изменение системных подсказок
- Разбор любых вредоносных внешних входных данных (например, вредоносной веб-страницы) может привести к полному захвату agent; в одной демонстрации от HiddenLayer исследователи заставили ИИ кратко пересказать набор веб-страниц, в котором пряталась вредоносная страница, дающая команду agent загрузить и выполнить shell-скрипт
- Некоторые сторонние пакеты навыков (skills) выполняют скрытую утечку данных, пересылая их через curl на внешний сервер, которым управляет автор навыков
- В проанализированных им пакетах навыков примерно 15% содержат вредоносные команды
Виталик подчеркивает, что его подход к конфиденциальности отличается от традиционной работы исследователей по кибербезопасности: «Я пришел из позиции, где глубоко страшно отдавать в облачный ИИ полностью все личные данные — прямо в тот момент, когда, наконец, стали мейнстримом сквозное шифрование и программное обеспечение с приоритетом локального использования, мы, возможно, делаем шаг назад на десять шагов».
Пять целей безопасности
Он установил четкую рамку целей безопасности:
- Конфиденциальность LLM: в сценариях, связанных с персональными данными, максимально снижать использование удаленных моделей
- Другая конфиденциальность: минимизировать утечки данных, не относящихся к LLM (например, поисковые запросы, другие онлайн API)
- Удержание LLM от «запирания»: предотвращать «взлом» моего LLM внешним контентом, чтобы он нарушал мои интересы (например, отправка моих токенов или частных данных)
- Неожиданности LLM: предотвратить случайную отправку LLM персональных данных в неверные каналы или публикацию в сети
- LLM-бэкдор: предотвратить скрытые механизмы, намеренно обученные быть встроенными в модель. Он особо напоминает: открытая модель — это открытые веса (open-weights), и почти ни одна из них не является действительно открытым исходным кодом (open-source)
Выбор оборудования: 5090 выигрывает, DGX Spark разочаровывает
Виталик протестировал три конфигурации оборудования для локального вывода и основную модель Qwen3.5:35B вместе с llama-server и llama-swap:
| Аппаратное обеспечение |
Qwen3.5 35B (tokens/sec) |
Qwen3.5 122B (tokens/sec) |
| NVIDIA 5090 ноутбук (24GB VRAM) |
90 |
Невозможно выполнить |
| AMD Ryzen AI Max Pro (128GB unified memory, Vulkan) |
51 |
18 |
| DGX Spark (128GB) |
60 |
22 |
Его вывод таков: ниже 50 tok/sec слишком медленно, 90 tok/sec — идеально. Ощущения от NVIDIA 5090 ноутбука самые плавные; у AMD сейчас еще больше пограничных проблем, но в будущем есть надежда на улучшения. Старшие варианты MacBook тоже подходят, но лично он их не тестировал.
Про DGX Spark он сказал довольно прямо: «Его описывают как “настольный суперкомпьютер для ИИ”, но по факту tokens/sec ниже, чем у хорошего GPU в ноутбуке, и еще нужно отдельно разбираться с сетевым подключением и прочими деталями — это слабо». Его рекомендация такая: если вы не можете позволить себе дорогой ноутбук, можно купить достаточно мощную машину совместно с друзьями, поставить в месте с фиксированным IP и подключаться к ней удаленно.
Почему проблемы конфиденциальности локального ИИ более срочные, чем вы думаете
Эта статья Виталика перекликается с обсуждением безопасностных проблем Claude Code, опубликованным в тот же день: в то время как AI-агенты входят в повседневный рабочий процесс разработки, вопросы безопасности тоже переходят от теоретических рисков к реальным угрозам.
Его ключевое сообщение очень ясное: когда ИИ-инструменты становятся все мощнее и все лучше получают доступ к вашим персональным данным и системным правам, «локальный приоритет, песочница, минимальное доверие» — это не паранойя, а рациональная отправная точка.
- Эта статья опубликована с разрешения из:《鏈新聞》
- Оригинальный заголовок:《Vitalik:как я создал полностью локальную, приватную и подконтрольную мне рабочую среду для ИИ》
- Оригинальный автор: Elponcrab
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к
Отказу от ответственности.
Связанные статьи
Реклама ChatGPT выходит на рынки Австралии и Новой Зеландии: для пользователей Free и Go сначала, платные тарифы сохраняют отсутствие рекламы
OpenAI 17 апреля 2023 года расширила рекламу ChatGPT до Австралии, Новой Зеландии и Канады, нацелившись на пользователей Free и Go; для платных пользователей рекламы нет. Это знаменует вторую траекторию коммерциализации ИИ и учитывает коммерческие и регуляторные риски: появление рекламы может способствовать конвертации в платную подписку.
ChainNewsAbmedia1ч назад
Hyundai Motor Group реорганизует деятельность вокруг ИИ и робототехники, нацеливаясь на 30 000 роботов Atlas к 2030 году
Группа Hyundai Motor Group проводит реструктуризацию, чтобы сосредоточиться на ИИ и робототехнике, сокращая традиционные направления. Она планирует инвестировать $34,3 млрд в робототехнику к 2030 году и намерена запустить модель робототехники как услуги, сотрудничая с Google DeepMind и NVIDIA.
GateNews4ч назад
NEA изучает применение искусственного интеллекта в ядерном регулировании
Рабочая группа NEA по новым технологиям провела семинар 25—26 марта, посвященный тому, как искусственный интеллект может применяться для регуляторного надзора и внутренних операций в рамках ядерных органов власти.
Резюме
Семинар NEA изучал реальные приложения ИИ в ядерном регулировании, с
Cryptonews7ч назад
Китай протестирует 300+ гуманоидных роботов в пекинском полумарафоне 19 апреля
Второй робо-полумарафон в Пекине включает более 300 гуманоидных роботов из 70 команд, соревнующихся на дистанции 21 км. Подчёркивается прогресс в автономном движении: 40% устройств работают без управления. Китай доминирует на рынке гуманоидных роботов, несмотря на производственные трудности.
GateNews10ч назад
США стремятся к увеличению импорта урана из Намибии для питания ядерных установок, ориентированных на ИИ
США рассматривают увеличение импорта урана из Намибии, чтобы поддержать ядерную энергетику для центров обработки данных под ИИ, поскольку Китай доминирует в урановом секторе Намибии. Рост цен на уран возрождает интерес к добыче, несмотря на проблемы с водоснабжением в засушливом регионе.
GateNews10ч назад
Руководители OpenAI Билл Пиблз и Кевин Уилл уходят в рамках кадровой перестановки
Руководители OpenAI Билл Пиблз и Кевин Уил объявили о своем уходе — в рамках серии кадровых изменений по мере того, как компания децентрализует свою деятельность. Их уход последовал за несколькими другими громкими отставками и изменением структуры компании.
GateNews11ч назад