
Виталик Бутерин выдвинул концепцию AI-архитектуры для локального запуска, подчеркнув конфиденциальность, безопасность и самообладание собой, и предупредил о потенциальных рисках AI-агентов.
Основатель Ethereum Виталик Бутерин 2 апреля опубликовал на своем личном сайте длинную статью, в которой поделился настройкой своей AI-рабочей среды, выстроенной вокруг конфиденциальности, безопасности и самообладания собой — все LLM выводят вычисления локально, все файлы хранятся локально, а среда полностью изолирована в песочнице; он намеренно избегает облачных моделей и внешних API.
В самом начале статьи он сначала предупреждает: «Пожалуйста, не копируйте инструменты и технологии, описанные в этой статье, и не предполагайте, что они безопасны. Это лишь отправная точка, а не описание готового продукта».
Почему сейчас он пишет об этом? Проблемы безопасности AI-агентов серьезно недооценены
Виталик отмечает, что в начале этого года AI совершил важный переход от «чат-ботов» к «агентам» — теперь вы не просто задаете вопросы, а поручаете задачи, заставляя AI думать длительное время и вызывать сотни инструментов для выполнения. Он приводит в пример OpenClaw (сейчас самый быстрорастущий repo за всю историю GitHub) и одновременно называет несколько проблем безопасности, зафиксированных исследователями:
- AI-агент может изменять критически важные настройки без подтверждения человеком, включая добавление новых каналов связи и изменение системных подсказок
- Парсинг любых вредоносных внешних входных данных (например, злонамеренных веб-страниц) может привести к тому, что агент будет полностью захвачен; в одном из демонстрационных показов HiddenLayer исследователь заставил AI суммировать подборку страниц, среди которых была вредоносная страница, которая командовала агенту скачать и выполнить shell-скрипт
- Некоторые сторонние пакеты навыков (skills) выполняют тихую утечку данных — они отправляют данные на внешние серверы, находящиеся под контролем автора навыков, с помощью команд curl
- В навыках, которые они проанализировали, примерно 15% содержали вредоносные инструкции
Виталик подчеркивает, что его отправная точка по конфиденциальности отличается от традиционной позиции исследователей по кибербезопасности: «Я исхожу из позиции глубокой тревоги из-за того, что личная жизнь целиком отдается облачному AI — в то время как, прямо сейчас, когда сквозное шифрование и локальное приоритетное ПО наконец стали мейнстримом, мы, возможно, делаем шаг назад на десять».
Пять целей безопасности
Он установил четкую рамку целей безопасности:
- Конфиденциальность LLM: в сценариях с участием персональных данных — по возможности сокращать использование удаленных моделей
- Другая конфиденциальность: минимизировать утечку данных, не относящихся к LLM (например, поисковые запросы, другие онлайн API)
- Утечка LLM (jailbreak): не допустить «взлома» моего LLM внешним контентом, чтобы он действовал вопреки моим интересам (например, отправлял мои токены или мои приватные данные)
- Незапланированные действия LLM: не допустить, чтобы LLM ошибочно отправлял приватные данные по неверным каналам или публиковал их в сети
- LLM-бэкдор: предотвращать скрытые механизмы, преднамеренно обученные попадать в модель. Он особенно напоминает: открытые модели — это открытые веса (open-weights), и почти ни одна из них не является по-настоящему открытым исходным кодом (open-source)
Выбор по железу: ноутбук 5090 побеждает, DGX Spark разочаровывает
Виталик протестировал три варианта оборудования для локального вывода, в основном используя модель Qwen3.5:35B в связке с llama-server и llama-swap:
| Железо |
Qwen3.5 35B(tokens/sec) |
Qwen3.5 122B(tokens/sec) |
| NVIDIA 5090 ноутбук(24GB VRAM) |
90 |
невозможно запустить |
| AMD Ryzen AI Max Pro(128GB унифицированная память, Vulkan) |
51 |
18 |
| DGX Spark(128GB) |
60 |
22 |
Его вывод: ниже 50 tok/sec слишком медленно, а 90 tok/sec — идеальный вариант. Опыт с NVIDIA 5090 ноутбуком самый плавный; у AMD пока еще больше пограничных проблем, но в будущем это, как ожидается, улучшится. Старший MacBook тоже является рабочим вариантом, только он лично не пробовал.
Про DGX Spark он сказал прямо без обиняков: «Его описывают как “настольный суперкомпьютер для AI”, но на деле tokens/sec ниже, чем у хороших GPU в ноутбуках; и к тому же нужно дополнительно разбираться с подключением к сети и прочими деталями — это очень слабо». Его рекомендация: если вы не можете позволить себе дорогой ноутбук, купите вместе с друзьями достаточно мощную машину, поставьте ее в месте с фиксированным IP и используйте удаленно, подключаясь всем вместе.
Почему проблемы конфиденциальности локального AI более срочные, чем вы думаете
Статья Виталика перекликается с обсуждением вопросов безопасности, запущенным в тот же день вместе с Claude Code — пока AI-агенты входят в повседневные рабочие процессы разработки, проблемы безопасности тоже переходят из теоретических рисков в реальные угрозы.
Его основное послание очень ясное: в момент, когда AI-инструменты становятся все мощнее и все лучше получают доступ к вашим персональным данным и системным правам, «локальный приоритет, песочница, минимальное доверие» — это не паранойя, а разумная отправная точка.
- Эта статья воспроизведена с разрешения издания: «ChainNews»
- Оригинальное название: «Vitalik:Как я построил полностью локальную, приватную и поддающуюся контролю AI-рабочую среду»
- Оригинальный автор: Elponcrab
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к
Отказу от ответственности.
Связанные статьи
Hyundai Motor Group реорганизует деятельность вокруг ИИ и робототехники, нацеливаясь на 30 000 роботов Atlas к 2030 году
Группа Hyundai Motor Group проводит реструктуризацию, чтобы сосредоточиться на ИИ и робототехнике, сокращая традиционные направления. Она планирует инвестировать $34,3 млрд в робототехнику к 2030 году и намерена запустить модель робототехники как услуги, сотрудничая с Google DeepMind и NVIDIA.
GateNews24м назад
NEA изучает применение искусственного интеллекта в ядерном регулировании
Рабочая группа NEA по новым технологиям провела семинар 25—26 марта, посвященный тому, как искусственный интеллект может применяться для регуляторного надзора и внутренних операций в рамках ядерных органов власти.
Резюме
Семинар NEA изучал реальные приложения ИИ в ядерном регулировании, с
Cryptonews2ч назад
Китай протестирует 300+ гуманоидных роботов в пекинском полумарафоне 19 апреля
Второй робо-полумарафон в Пекине включает более 300 гуманоидных роботов из 70 команд, соревнующихся на дистанции 21 км. Подчёркивается прогресс в автономном движении: 40% устройств работают без управления. Китай доминирует на рынке гуманоидных роботов, несмотря на производственные трудности.
GateNews5ч назад
США стремятся к увеличению импорта урана из Намибии для питания ядерных установок, ориентированных на ИИ
США рассматривают увеличение импорта урана из Намибии, чтобы поддержать ядерную энергетику для центров обработки данных под ИИ, поскольку Китай доминирует в урановом секторе Намибии. Рост цен на уран возрождает интерес к добыче, несмотря на проблемы с водоснабжением в засушливом регионе.
GateNews5ч назад
Руководители OpenAI Билл Пиблз и Кевин Уилл уходят в рамках кадровой перестановки
Руководители OpenAI Билл Пиблз и Кевин Уил объявили о своем уходе — в рамках серии кадровых изменений по мере того, как компания децентрализует свою деятельность. Их уход последовал за несколькими другими громкими отставками и изменением структуры компании.
GateNews6ч назад
Zoom сотрудничает с World, чтобы добавить обнаружение дипфейков с использованием распознавания лиц
Zoom сотрудничает с World, компанией с участием Сэма Алтмана, чтобы запустить функцию, которая определяет реальных участников по сравнению с ИИ-«дипфейками» во время видеозвонков. Это направлено на борьбу с растущим мошенничеством с использованием дипфейков; предусмотрены варианты верификации для хостов и участников.
GateNews7ч назад