Un petit modèle peut-il aussi détecter des vulnérabilités de cybersécurité que Claude Mythos détecte ? AISLE : le fossé protecteur est dans le système, pas dans le modèle

La startup en cybersécurité AISLE, créée par ![]###https://img-cdn.gateio.im/social/moments-e4b0e40da9-1b7138e903-8b7abd-badf29###, a reproduit une partie des démonstrations clés du système phare de sécurité informatique d’Anthropic, Mythos, avec un petit modèle à 3,6B paramètres actifs seulement, coûtant 0,11 dollar par million de tokens. Les limites des capacités en cybersécurité de l’IA sont plus « irrégulières » que ce que vous imaginez.
(Contexte : Lorsque Anthropic publiera Mythos, est-ce que ce sera le moment d’une bombe nucléaire pour DeFi ?)
(Complément de contexte : Mythos est tellement puissant qu’il déclenche une réunion d’urgence : Bescent et Powell rassemblent Citi, Goldman Sachs, Bank of America, et les grands et moyens Morgan, cinq banques se concentrant sur les risques financiers.)

Table des matières

Toggle

  • Que montre la démonstration de Mythos, et quelles reproductions le petit modèle réalise-t-il ?
  • Pourquoi un modèle plus grand ne signifie pas un système plus sûr
  • Où se trouve le fossé de protection — et où il ne se trouve pas

Anthropic a publié cette semaine un modèle non encore rendu public, le Claude Mythos Preview, et a aussi lancé simultanément le projet Project Glasswing (Glasswing), un programme porté par 12 entreprises technologiques, dont Amazon, Apple, Microsoft, CrowdStrike, Cisco, etc., qui utilisent ce modèle pour mener des recherches de cybersécurité défensives.

Parce que Mythos, selon les allégations, repère de manière autonome des milliers de vulnérabilités zero-day (vulnérabilité zero-day : faille de sécurité non encore corrigée et que les fournisseurs eux-mêmes peuvent ne pas connaître) dans chaque système d’exploitation majeur et dans les navigateurs, cela suggère qu’une nouvelle ère de défense en cybersécurité menée par l’IA est sur le point de commencer.

Cependant, moins d’une semaine plus tard, la startup en cybersécurité AISLE — cofondée par Stanislav Fort, chercheur à la fois chez DeepMind et chez Anthropic — a publié, dans le blog technique de la société, un rapport systématique.

Conclusion centrale, sans détour : lors de la tâche phare de démonstration de Mythos, un modèle open source dont le nombre de paramètres actifs n’est que de 3,6B, coûtant 0,11 dollar pour chaque million de tokens, obtient le même résultat en détection des vulnérabilités.

Que montre la démonstration de Mythos, et quelles reproductions le petit modèle réalise-t-il ?

AISLE a conçu trois séries de tests, chacune correspondant à des tâches de cybersécurité différentes, avec des difficultés et des natures distinctes.

La première série est un test de faux positifs pour OWASP (Open Web Application Security Project).

En traduction : une portion de code de requête Java SQL ressemble à une attaque par injection SQL (SQL Injection), mais en réalité, la logique est sûre. La bonne réponse est : ce n’est pas une vulnérabilité.

Les résultats des tests montrent un effet de scaling (mise à l’échelle) presque inversé : le petit modèle open source GPT-OSS-20b (3,6B paramètres actifs, $0.11/M tokens) suit correctement la logique du programme et conclut qu’il est inoffensif.

À l’inverse, Claude Sonnet 4.5, l’ensemble de la série GPT-4.1/5.4 (sauf o3 et pro), l’ensemble de la famille Anthropic jusqu’à Opus 4.5, classent tous avec assurance des faux positifs comme des vulnérabilités à haut risque. Seuls quelques modèles de toute première catégorie — o3, OpenAI-pro, Sonnet 4.6, Opus 4.6 — répondent correctement.

La deuxième série est une vulnérabilité FreeBSD NFS, le CVE-2026-4747, spécialement mise en avant dans la publication phare de Mythos : une vulnérabilité d’exécution de code à distance non autorisée vieille de 17 ans.

Résultat : les 8/8 modèles testés détectent tous avec succès, y compris ce petit modèle à 3,6B paramètres actifs. Tous les modèles identifient correctement un stack buffer overflow (débordement de mémoire tampon de la pile), calculent l’espace restant et l’évaluent comme un Critical RCE.

La conclusion d’AISLE est la suivante : ces capacités de détection sont déjà « industrialisées ».

La troisième série est une vulnérabilité OpenBSD SACK (historique de 27 ans), nécessitant de véritables raisonnements mathématiques : suivre une chaîne logique multi-étapes de débordement d’entier avec signe (signed integer overflow), à partir du raisonnement autour de la trace.

La difficulté augmente nettement, et les performances des modèles se différencient. GPT-OSS-120b (5,1B paramètres actifs) reproduit entièrement la chaîne d’exploitation, AISLE l’évalue A+. La version open source Kimi K2 obtient A-. Tandis que Qwen3 32B aboutit à une conclusion erronée du type « le code est robuste », évaluée F.

Même sur cette tâche plus difficile, un modèle open source extrêmement peu coûteux parvient à réaliser la même démonstration que le système phare.

( Pourquoi un modèle plus grand ne signifie pas un système plus sûr

Le véritable point de cette étude n’est pas « un petit modèle suffit », mais que la structure des capacités de cybersécurité de l’IA est bien plus complexe que ce que le public imagine.

AISLE décompose la chaîne d’outils en cybersécurité de l’IA en cinq sous-tâches indépendantes :

  • Scan large (broad scanning)
  • Détection de vulnérabilités (vulnerability detection)
  • Évaluation et validation (triage and validation)
  • Génération de correctifs (patch generation)
  • Construction d’exploits (exploit construction)

La nature de la mise à l’échelle (scaling) de chaque sous-tâche est différente, et les capacités de modèle requises ne sont pas les mêmes. L’annonce de Mythos intègre ces cinq niveaux comme un système complet, mais en réalité, leurs besoins en modèles sont extrêmement différents : certaines sous-tâches sont déjà complètement saturées avec 3,6B paramètres, tandis que d’autres nécessitent des capacités de raisonnement complexes.

Cela fait écho au concept de « Jagged Frontier » (frontière irrégulière) proposé en 2023 par les chercheurs de Harvard Business School Dell’Acqua et Mollick, etc. : la frontière des capacités de l’IA n’est pas une courbe lisse, mais une bordure en dents de scie, avec des creux et des bosses ; sur certaines tâches, elle dépasse largement les humains, mais sur des tâches adjacentes, elle devient étonnamment fragile.

L’étude montre que si les utilisateurs déploient l’IA à l’intérieur de la frontière des capacités, la productivité augmente d’environ 40 % ; mais s’ils l’étendent imprudemment au-delà de la frontière, les performances diminuent au contraire de 19 %.

Dans ce cadre, AISLE propose une inférence plus directement applicable : « Mille détectives “suffisants” cherchent partout, plutôt qu’un détective génial qui devine où chercher, et cela permet de trouver plus de vulnérabilités. »

Déployer massivement des modèles à faible coût pour réaliser des scans à large spectre peut, en termes d’efficacité globale, surpasser une planification prudente utilisant un seul modèle haut coût. AISLE indique qu’à partir du milieu de 2025, elle exécute un système de découverte de vulnérabilités sur des objectifs réels : elle a trouvé 15 CVE dans OpenSSL (dont 12 proviennent d’une seule version de sécurité, avec CVSS 9.8 Critical), 5 dans curl, et au total plus de 180 CVE validées par des tiers externes dans plus de 30 projets.

) Où se trouve le fossé de protection — et où il ne se trouve pas

Cette analyse n’est ni une critique exhaustive d’Anthropic, ni un simple soutien sans réserve.

AISLE précise clairement que la signification de Mythos consiste à prouver que la catégorie « cybersécurité basée sur l’IA » est réelle : ce n’est pas seulement une idée mise en scène dans un laboratoire de démonstration, mais un système capable de fonctionner sur de véritables objectifs. Ce qu’Anthropic cherche à maximiser, c’est la « densité de sagesse par token », ce qui conserve une valeur difficilement remplaçable, même pour des tâches nécessitant un raisonnement approfondi.

Mais AISLE souligne en même temps un problème plus fondamental pour l’ensemble de l’industrie : le fossé de protection se trouve dans le système, pas dans le modèle lui-même.

Dans le domaine de la cybersécurité, AISLE estime que ce qui crée la vraie différenciation, ce sont des conceptions d’architecture intégrant une expertise approfondie, par exemple : comment décomposer les tâches, comment planifier l’exécution de modèles de différents coûts entre les sous-tâches, et comment maintenir la confiance des mainteneurs dans l’environnement de production.

Un système capable de trouver des vulnérabilités CVSS 9.8 dans OpenSSL, et un système qui détecte, dans une démonstration contrôlée, des vulnérabilités connues correspondant à des motifs, ne nécessitent pas seulement un modèle plus puissant, mais une logique d’ingénierie totalement différente.

En résumé, le rapport d’AISLE conclut : des modèles plus bon marché et plus ouverts peuvent déjà reproduire une partie de ses démonstrations clés. Le vrai problème n’est peut-être pas de savoir quel modèle est le plus fort, mais plutôt : qui fait d’abord fonctionner en production l’architecture des cinq sous-tâches.

![]###https://img-cdn.gateio.im/social/moments-e4b0e40da9-1b7138e903-8b7abd-badf29

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Claude Mythos menace-t-il la sécurité financière ? Le Trésor américain et le président de la Réserve fédérale se réunissent en urgence et mettent en garde contre les risques

Le secrétaire au Trésor des États-Unis et le président de la Réserve fédérale réunissent les cadres de Wall Street et avertissent que le modèle d’IA Mythos pourrait poser un risque systémique pour le système financier. Mythos peut découvrir de nombreuses vulnérabilités de manière autonome ; Anthropic a choisi d’en limiter la diffusion publique et a lancé le « plan Glass Wings » pour renforcer la cybersécurité.

CryptoCityIl y a 28m

Google lance Gemini Robotics ER 1.6 : modèle de robot SOTA, excellent en raisonnement visuel et spatial

Google DeepMind lance Gemini Robotics ER 1.6, un modèle de robot d’inférence incarnée qui met l’accent sur les capacités de raisonnement visuel et spatial, et qui permet un accès via l’API Gemini, réduisant ainsi le seuil de développement. Ce modèle est capable de comprendre avec précision l’environnement et de traiter des tâches complexes, démontrant les progrès continus de Google dans le domaine de l’IA pour la robotique.

ChainNewsAbmediaIl y a 54m

Rapport économique du président des États-Unis 2026 : retour sur la volatilité de 2025, prévisions d’une croissance stable sur les dix prochaines années

Rapport du Conseil des conseillers économiques de la Maison-Blanche analysant l’économie américaine en 2025 : dans un contexte d’ajustements de politique, le taux de croissance du PIB réel s’établit à 2,0 %. Bien que des variations soient attendues à court terme, les projections indiquent qu’au cours des dix prochaines années, la croissance moyenne atteindra 3,0 %. Le déploiement de l’intelligence artificielle et le grand projet de loi, ainsi que la loi allemande et la loi française, constitueront les principaux moteurs économiques, tandis que les anticipations concernant l’inflation et les taux d’intérêt resteront stables.

ChainNewsAbmediaIl y a 3h

Les services LLM de B.AI dépassent 1 million d’utilisateurs, en mettant à l’échelle une infrastructure d’IA axée sur la confidentialité dès la conception

Les services LLM de B.AI ont dépassé le million d’utilisateurs, démontrant sa capacité à gérer un débit élevé grâce à une architecture de routage axée sur la confidentialité, tout en développant une infrastructure pour une économie d’agents autonomes.

GateNewsIl y a 3h

Claude Mythos : une menace pour la sécurité financière ? Le Trésor américain et le président de la Réserve fédérale se réunissent d’urgence pour avertir des risques

Le secrétaire au Trésor américain et le président de la Réserve fédérale réunissent les dirigeants de Wall Street, en les avertissant que le modèle d’IA Mythos pourrait poser un risque systémique pour le système financier. Mythos peut repérer de nombreuses vulnérabilités de manière autonome, Anthropic a choisi de limiter sa publication publique et a lancé le « Glass Wing Project » pour renforcer la cybersécurité.

CryptoCityIl y a 3h

NVIDIA lance Ising, première série de modèles d’IA open source pour l’informatique quantique

NVIDIA a lancé Ising, la première série de modèles d’IA open source dédiée à l’étalonnage et à la correction d’erreurs en informatique quantique, permettant le développement d’applications quantiques évolutives et pratiques. Le PDG Jensen Huang souligne le rôle essentiel de l’IA dans l’amélioration de la fiabilité de l’informatique quantique.

GateNewsIl y a 4h
Commentaire
0/400
Aucun commentaire