Может ли небольшая модель обнаружить уязвимости в области кибербезопасности, выявляемые обнаружением Claude Mythos? AISLE: ров в системе, а не в модели

Кибербезопасностный стартап AISLE использует небольшую модель с 3,6B параметров — всего за 0,11 доллара за каждый миллион токенов — и воспроизводит часть ключевых демонстраций флагманской кибербезопасностной системы Mythos от Anthropic. Границы возможностей ИИ в кибербезопасности куда более «неравномерные», чем вы думаете.
(Предыстория: когда Anthropic выпускает Mythos, это будет момент ядерного взрыва для DeFi?)
(Дополнение к контексту: Mythos от Anthropic настолько силён, что вызвал срочное совещание: Бэссент, Пауэлл созвали Citi, Goldman Sachs, Bank of America, а также Б. и М.; пять банков сосредоточились на финансовых рисках)

Оглавление

Toggle

  • Что продемонстрировал Mythos и что воспроизвела малая модель?
  • Почему более большие модели не равны более безопасной системе
  • Где ров — и где его нет

На этой неделе Anthropic выпустила ранее не анонсированную модель Claude Mythos Preview и параллельно запустила проект Glasswing («Стеклянное крыло»), в рамках которого 12 технологических компаний — включая Amazon, Apple, Microsoft, CrowdStrike, Cisco и др. — используют эту модель для проведения оборонительных исследований в области кибербезопасности.

Поскольку, как утверждается, Mythos автономно находит тысячи zero-day уязвимостей (zero-day vulnerability — уязвимости безопасности, которые ещё не получили публичного исправления, и о которых могут не знать даже поставщики) в каждой ключевой операционной системе и браузере, это намекает на скорое наступление новой эпохи защиты кибербезопасности, где ведущую роль будет играть ИИ.

Однако менее чем за неделю кибербезопасностный стартап AISLE, основанный совместно бывшими исследователями DeepMind и Anthropic Станиславом Фортом (Stanislav Fort), опубликовал в корпоративном техническом блоге систематический отчёт.

Ключевой вывод прямо такой: в флагманской демонстрационной задаче Mythos открытая малая модель с active-параметрами всего 3,6B и стоимостью 0,11 доллара за миллион токенов добилась тех же результатов по обнаружению уязвимостей.

Что продемонстрировал Mythos и что воспроизвела малая модель?

AISLE разработала три набора тестов, каждый из которых соответствует различным по сложности и характеру задачам в кибербезопасности.

Первая группа — тесты на ложноположительные срабатывания OWASP (Open Web Application Security Project, проект по безопасности веб-приложений).

Если перевести по сути: фрагмент Java SQL-запроса выглядит как SQL Injection (атака SQL-инъекцией), но на самом деле логика безопасна. Правильный ответ — отсутствие уязвимости.

Результаты теста показывают почти обратный эффект scaling (масштабирования): небольшая открытая модель GPT-OSS-20b (3,6B active-параметров, $0.11/M tokens) корректно отслеживает логику программы и определяет, что угрозы нет.

Напротив, Claude Sonnet 4.5, все серии GPT-4.1/5.4 (кроме o3 и pro), вся линейка Anthropic вплоть до Opus 4.5 уверенно ошибочно классифицируют это как высокорисковую уязвимость. Правильный ответ дают только немногие топ-модели — o3, OpenAI-pro, Sonnet 4.6, Opus 4.6.

Вторая группа — уязвимость FreeBSD NFS, то самое, что Mythos особенно продемонстрировала в своём флагманском релизе: CVE-2026-4747 — уязвимость удалённого выполнения кода, существующая 17 лет и не имеющая авторизации.

Итог: все 8/8 протестированных моделей успешно обнаружили уязвимость, включая ту малую модель с 3,6B active-параметрами. Все модели корректно распознали stack buffer overflow (переполнение стека буфера), вычислили оставшееся пространство и оценили это как Critical RCE.

Вывод AISLE таков: такая способность обнаружения уже «перешла в разряд товара».

Третья группа — уязвимость OpenBSD SACK (история на 27 лет), где требуется действительно математическое рассуждение: отслеживание многшаговой логической цепочки переполнения со знаком (signed integer overflow).

Сложность заметно растёт, а результаты моделей начинают заметно различаться. GPT-OSS-120b (5,1B active-параметров) полностью воспроизводит цепочку эксплуатации; AISLE оценивает это как A+; открытая версия Kimi K2 получает A-; а Qwen3 32B выдаёт ошибочный вывод «код очень устойчив», оценка F.

Даже в этой более сложной задаче модель с очень низкой стоимостью всё равно добилась равнозначной демонстрации на уровне флагманской системы.

Почему более большие модели не равны более безопасной системе

Настоящий аргумент этого отчёта — не «малой модели достаточно», а то, что структура возможностей ИИ в кибербезопасности гораздо сложнее, чем это видит внешний мир.

AISLE разбивает конвейер ИИ в кибербезопасности на пять независимых подзадач:

  • Широкоспектральное сканирование (broad scanning)
  • Обнаружение уязвимостей (vulnerability detection)
  • Разделение по категориям и валидация (triage and validation)
  • Генерация патчей (patch generation)
  • Конструирование эксплойта (exploit construction)

У каждой подзадачи своя природа scaling, поэтому требуемые способности моделей тоже различаются. Объявление Mythos объединяет эти пять уровней в виде единой системы, но на практике различия в потребностях моделей между ними колоссальны: некоторые подзадачи при 3,6B параметров уже полностью насыщены, а некоторые требуют сложных навыков рассуждения.

Это перекликается с концепцией «Jagged Frontier» («неровная/рваная граница»), которую в 2023 году предложили исследователи Harvard Business School — Dell’Acqua и Mollick и др.: граница возможностей ИИ — не гладкая ровная кривая, а зубчатые пилы с впадинами и выступами; в некоторых задачах ИИ намного превосходит человека, но в соседних задачах — неожиданно хрупок.

Исследование показало, что если пользователи развёртывают ИИ в пределах границы возможностей, производительность растёт примерно на 40%; если же необдуманно выходить за пределы границы, результат, напротив, падает на 19%.

В рамках этой модели AISLE делает более прикладной вывод: «тысяча детективов, которые обыскивают повсюду, вместо одного гениального детектива, который гадает, где искать, — найдут больше уязвимостей».

Массовое развёртывание недорогих моделей для широкоспектрального сканирования в суммарной эффективности может превосходить осторожное планирование одиночной модели с высокой стоимостью. AISLE заявляет, что начиная с середины 2025 года она выполняет системы обнаружения уязвимостей на реальных целях: в OpenSSL удалось найти 15 CVE (из них один выпуск безопасного обновления включает 12, CVSS 9.8 Critical), в curl — 5, а в более чем 30 проектах суммарно — свыше 180 внешне верифицированных CVE.

Где ров — и где его нет

Этот анализ для Anthropic не является ни всеобъемлющей критикой, ни простым подтверждением.

AISLE прямо указывает: смысл Mythos — доказать, что категория «AI для кибербезопасности» — реальна. Это не просто идея из демонстраций в лаборатории, а система, которая может работать на реальных целях. То, что делает Anthropic, — максимизация «интеллекта на токен», и даже в задачах, где требуется глубокое рассуждение, это значение остаётся трудно заменимым.

Но AISLE одновременно подчёркивает более фундаментальную проблему для всей отрасли: ров/“защитный барьер” находится в системе, а не в самой модели.

В области кибербезопасности AISLE считает, что именно архитектурный дизайн с встраиванием глубокой профессиональной экспертизы — например: как разложить задачу, как планировать разные по стоимости модели между подзадачами, как в производственной среде поддерживать доверие обслуживающих в maintenance людей, — является подлинным источником дифференциации.

Система, которая умеет находить CVSS 9.8 уязвимости в OpenSSL, и система, которая в контролируемой демонстрации обнаруживает уязвимости известных паттернов, требуют не просто более сильной модели, а совершенно иной инженерной логики.

В целом отчёт AISLE обнаружил следующее: более дешёвые, более открытые модели уже способны воспроизвести часть ключевых демонстраций. Вероятно, подлинная проблема не в том, чья модель сильнее, а в том, кто первым сумеет запустить в производственной среде архитектуру всех пяти подзадач.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

Claude Mythos: угроза финансовой безопасности? Министр финансов США и председатель ФРС срочно собрались, чтобы предупредить о рисках

Министр финансов США и председатель Федеральной резервной системы созвали руководство Уолл-стрит и предупредили, что ИИ-модель Mythos может представлять системный риск для финансовой системы. Mythos самостоятельно обнаруживает множество уязвимостей, Anthropic решила ограничить её публичный выпуск и запустила «Проект “Glass Wing”» для усиления кибербезопасности.

CryptoCity2ч назад

Anthropic нанимает лоббистскую компанию Ballard Partners, ранее переговоры с Пентагоном сорвались из-за ограничений на использование ИИ

Anthropic 14 апреля объявила о сотрудничестве с лоббистской компанией Ballard Partners, чтобы улучшить отношения с Пентагоном. Ранее стороны не смогли договориться из‑за разногласий по поводу того, как именно должна использоваться ИИ-технология: Пентагон хочет, чтобы его инструменты применялись без ограничений, а Anthropic настаивает на ограничении их использования для полностью автономного оружия и наблюдения. Это решение свидетельствует о заметном росте инвестиций в политическую коммуникацию в индустрии ИИ.

GateNews2ч назад

Внутренний меморандум OpenAI оказался в открытом доступе: в нём напрямую указывается на то, что у Anthropic нарратив строится на страхе, а также что «вычислительные мощности отстают, и выручка раздувается».

Конкуренция в области искусственного интеллекта усиливается: в своем внутреннем меморандуме OpenAI подчеркивает необходимость укреплять позиции на корпоративном рынке, повышать удержание пользователей и критикует стратегические ошибки конкурента Anthropic и преувеличение финансовых показателей, указывая на его слабости в плане вычислительных мощностей и продуктовой стратегии. OpenAI планирует развиваться в направлении интегрированной платформы с множеством продуктов, используя преимущество в вычислительных ресурсах для достижения лидерства на рынке.

ChainNewsAbmedia3ч назад

ИИ в медицине вызывает дискриминацию! Высокодоходные пациенты получают точные обследования, а афроамериканцам и бездомным рекомендуют инвазивное лечение

Последние исследования указывают, что медицинский ИИ на основе дохода пациентов, расы и других факторов дает разные медицинские рекомендации, в результате чего людям с высоким доходом рекомендуют более дорогостоящие обследования, а уязвимые группы чаще сталкиваются с неправомерными медицинскими вмешательствами, что может усилить предвзятость и риск клинических ошибок. Эксперты призывают создать механизмы мониторинга, чтобы обеспечить медицинскую справедливость.

ChainNewsAbmedia3ч назад

Инвесторы OpenAI ставят под сомнение оценку компании в $852 млрд, заявляя, что стратегический разворот или угроза конкуренции могут быть реальными

Новости Gate News, 14 апреля, The Financial Times сообщила, что инвесторы OpenAI сомневаются в ее оценке в 852B долларов, считая, что стратегия компании меняется. Некоторые инвесторы заявили, что эти стратегические изменения могут сделать OpenAI более уязвимой для угроз со стороны конкурентов, таких как Anthropic и Google.

GateNews4ч назад

Боссу больше не нужно заходить в офис! Meta создает цифрового двойника Цукерберга; по любым вопросам напрямую спрашивайте ИИ

Meta разрабатывает AI-копию на основе генерального директора Марка Цукерберга, чтобы укрепить связь между сотрудниками и руководством. Этот цифровой двойник будет использовать изображения, голос и стратегическое мышление Цукерберга, чтобы около 80k сотрудников могли с ним взаимодействовать. Этот план отличается от «CEO-агента», который является инструментом поддержки принятия решений. Долгосрочная цель Meta — развивать «сверхразум» AI и попытаться применить эту технологию к мировым инфлюенсерам и создателям контента.

ChainNewsAbmedia4ч назад
комментарий
0/400
Нет комментариев