Кибербезопасностный стартап AISLE использует небольшую модель с 3,6B параметров — всего за 0,11 доллара за каждый миллион токенов — и воспроизводит часть ключевых демонстраций флагманской кибербезопасностной системы Mythos от Anthropic. Границы возможностей ИИ в кибербезопасности куда более «неравномерные», чем вы думаете.
(Предыстория: когда Anthropic выпускает Mythos, это будет момент ядерного взрыва для DeFi?)
(Дополнение к контексту: Mythos от Anthropic настолько силён, что вызвал срочное совещание: Бэссент, Пауэлл созвали Citi, Goldman Sachs, Bank of America, а также Б. и М.; пять банков сосредоточились на финансовых рисках)
Оглавление
Toggle
На этой неделе Anthropic выпустила ранее не анонсированную модель Claude Mythos Preview и параллельно запустила проект Glasswing («Стеклянное крыло»), в рамках которого 12 технологических компаний — включая Amazon, Apple, Microsoft, CrowdStrike, Cisco и др. — используют эту модель для проведения оборонительных исследований в области кибербезопасности.
Поскольку, как утверждается, Mythos автономно находит тысячи zero-day уязвимостей (zero-day vulnerability — уязвимости безопасности, которые ещё не получили публичного исправления, и о которых могут не знать даже поставщики) в каждой ключевой операционной системе и браузере, это намекает на скорое наступление новой эпохи защиты кибербезопасности, где ведущую роль будет играть ИИ.
Однако менее чем за неделю кибербезопасностный стартап AISLE, основанный совместно бывшими исследователями DeepMind и Anthropic Станиславом Фортом (Stanislav Fort), опубликовал в корпоративном техническом блоге систематический отчёт.
Ключевой вывод прямо такой: в флагманской демонстрационной задаче Mythos открытая малая модель с active-параметрами всего 3,6B и стоимостью 0,11 доллара за миллион токенов добилась тех же результатов по обнаружению уязвимостей.
AISLE разработала три набора тестов, каждый из которых соответствует различным по сложности и характеру задачам в кибербезопасности.
Первая группа — тесты на ложноположительные срабатывания OWASP (Open Web Application Security Project, проект по безопасности веб-приложений).
Если перевести по сути: фрагмент Java SQL-запроса выглядит как SQL Injection (атака SQL-инъекцией), но на самом деле логика безопасна. Правильный ответ — отсутствие уязвимости.
Результаты теста показывают почти обратный эффект scaling (масштабирования): небольшая открытая модель GPT-OSS-20b (3,6B active-параметров, $0.11/M tokens) корректно отслеживает логику программы и определяет, что угрозы нет.
Напротив, Claude Sonnet 4.5, все серии GPT-4.1/5.4 (кроме o3 и pro), вся линейка Anthropic вплоть до Opus 4.5 уверенно ошибочно классифицируют это как высокорисковую уязвимость. Правильный ответ дают только немногие топ-модели — o3, OpenAI-pro, Sonnet 4.6, Opus 4.6.
Вторая группа — уязвимость FreeBSD NFS, то самое, что Mythos особенно продемонстрировала в своём флагманском релизе: CVE-2026-4747 — уязвимость удалённого выполнения кода, существующая 17 лет и не имеющая авторизации.
Итог: все 8/8 протестированных моделей успешно обнаружили уязвимость, включая ту малую модель с 3,6B active-параметрами. Все модели корректно распознали stack buffer overflow (переполнение стека буфера), вычислили оставшееся пространство и оценили это как Critical RCE.
Вывод AISLE таков: такая способность обнаружения уже «перешла в разряд товара».
Третья группа — уязвимость OpenBSD SACK (история на 27 лет), где требуется действительно математическое рассуждение: отслеживание многшаговой логической цепочки переполнения со знаком (signed integer overflow).
Сложность заметно растёт, а результаты моделей начинают заметно различаться. GPT-OSS-120b (5,1B active-параметров) полностью воспроизводит цепочку эксплуатации; AISLE оценивает это как A+; открытая версия Kimi K2 получает A-; а Qwen3 32B выдаёт ошибочный вывод «код очень устойчив», оценка F.
Даже в этой более сложной задаче модель с очень низкой стоимостью всё равно добилась равнозначной демонстрации на уровне флагманской системы.
Настоящий аргумент этого отчёта — не «малой модели достаточно», а то, что структура возможностей ИИ в кибербезопасности гораздо сложнее, чем это видит внешний мир.
AISLE разбивает конвейер ИИ в кибербезопасности на пять независимых подзадач:
У каждой подзадачи своя природа scaling, поэтому требуемые способности моделей тоже различаются. Объявление Mythos объединяет эти пять уровней в виде единой системы, но на практике различия в потребностях моделей между ними колоссальны: некоторые подзадачи при 3,6B параметров уже полностью насыщены, а некоторые требуют сложных навыков рассуждения.
Это перекликается с концепцией «Jagged Frontier» («неровная/рваная граница»), которую в 2023 году предложили исследователи Harvard Business School — Dell’Acqua и Mollick и др.: граница возможностей ИИ — не гладкая ровная кривая, а зубчатые пилы с впадинами и выступами; в некоторых задачах ИИ намного превосходит человека, но в соседних задачах — неожиданно хрупок.
Исследование показало, что если пользователи развёртывают ИИ в пределах границы возможностей, производительность растёт примерно на 40%; если же необдуманно выходить за пределы границы, результат, напротив, падает на 19%.
В рамках этой модели AISLE делает более прикладной вывод: «тысяча детективов, которые обыскивают повсюду, вместо одного гениального детектива, который гадает, где искать, — найдут больше уязвимостей».
Массовое развёртывание недорогих моделей для широкоспектрального сканирования в суммарной эффективности может превосходить осторожное планирование одиночной модели с высокой стоимостью. AISLE заявляет, что начиная с середины 2025 года она выполняет системы обнаружения уязвимостей на реальных целях: в OpenSSL удалось найти 15 CVE (из них один выпуск безопасного обновления включает 12, CVSS 9.8 Critical), в curl — 5, а в более чем 30 проектах суммарно — свыше 180 внешне верифицированных CVE.
Этот анализ для Anthropic не является ни всеобъемлющей критикой, ни простым подтверждением.
AISLE прямо указывает: смысл Mythos — доказать, что категория «AI для кибербезопасности» — реальна. Это не просто идея из демонстраций в лаборатории, а система, которая может работать на реальных целях. То, что делает Anthropic, — максимизация «интеллекта на токен», и даже в задачах, где требуется глубокое рассуждение, это значение остаётся трудно заменимым.
Но AISLE одновременно подчёркивает более фундаментальную проблему для всей отрасли: ров/“защитный барьер” находится в системе, а не в самой модели.
В области кибербезопасности AISLE считает, что именно архитектурный дизайн с встраиванием глубокой профессиональной экспертизы — например: как разложить задачу, как планировать разные по стоимости модели между подзадачами, как в производственной среде поддерживать доверие обслуживающих в maintenance людей, — является подлинным источником дифференциации.
Система, которая умеет находить CVSS 9.8 уязвимости в OpenSSL, и система, которая в контролируемой демонстрации обнаруживает уязвимости известных паттернов, требуют не просто более сильной модели, а совершенно иной инженерной логики.
В целом отчёт AISLE обнаружил следующее: более дешёвые, более открытые модели уже способны воспроизвести часть ключевых демонстраций. Вероятно, подлинная проблема не в том, чья модель сильнее, а в том, кто первым сумеет запустить в производственной среде архитектуру всех пяти подзадач.
Связанные статьи
Claude Mythos: угроза финансовой безопасности? Министр финансов США и председатель ФРС срочно собрались, чтобы предупредить о рисках
Anthropic нанимает лоббистскую компанию Ballard Partners, ранее переговоры с Пентагоном сорвались из-за ограничений на использование ИИ
Внутренний меморандум OpenAI оказался в открытом доступе: в нём напрямую указывается на то, что у Anthropic нарратив строится на страхе, а также что «вычислительные мощности отстают, и выручка раздувается».
ИИ в медицине вызывает дискриминацию! Высокодоходные пациенты получают точные обследования, а афроамериканцам и бездомным рекомендуют инвазивное лечение
Инвесторы OpenAI ставят под сомнение оценку компании в $852 млрд, заявляя, что стратегический разворот или угроза конкуренции могут быть реальными
Боссу больше не нужно заходить в офис! Meta создает цифрового двойника Цукерберга; по любым вопросам напрямую спрашивайте ИИ