La startup en cybersécurité AISLE, créée par ![]###https://img-cdn.gateio.im/social/moments-e4b0e40da9-1b7138e903-8b7abd-badf29###, a reproduit une partie des démonstrations clés du système phare de sécurité informatique d’Anthropic, Mythos, avec un petit modèle à 3,6B paramètres actifs seulement, coûtant 0,11 dollar par million de tokens. Les limites des capacités en cybersécurité de l’IA sont plus « irrégulières » que ce que vous imaginez.
(Contexte : Lorsque Anthropic publiera Mythos, est-ce que ce sera le moment d’une bombe nucléaire pour DeFi ?)
(Complément de contexte : Mythos est tellement puissant qu’il déclenche une réunion d’urgence : Bescent et Powell rassemblent Citi, Goldman Sachs, Bank of America, et les grands et moyens Morgan, cinq banques se concentrant sur les risques financiers.)
Table des matières
Toggle
Anthropic a publié cette semaine un modèle non encore rendu public, le Claude Mythos Preview, et a aussi lancé simultanément le projet Project Glasswing (Glasswing), un programme porté par 12 entreprises technologiques, dont Amazon, Apple, Microsoft, CrowdStrike, Cisco, etc., qui utilisent ce modèle pour mener des recherches de cybersécurité défensives.
Parce que Mythos, selon les allégations, repère de manière autonome des milliers de vulnérabilités zero-day (vulnérabilité zero-day : faille de sécurité non encore corrigée et que les fournisseurs eux-mêmes peuvent ne pas connaître) dans chaque système d’exploitation majeur et dans les navigateurs, cela suggère qu’une nouvelle ère de défense en cybersécurité menée par l’IA est sur le point de commencer.
Cependant, moins d’une semaine plus tard, la startup en cybersécurité AISLE — cofondée par Stanislav Fort, chercheur à la fois chez DeepMind et chez Anthropic — a publié, dans le blog technique de la société, un rapport systématique.
Conclusion centrale, sans détour : lors de la tâche phare de démonstration de Mythos, un modèle open source dont le nombre de paramètres actifs n’est que de 3,6B, coûtant 0,11 dollar pour chaque million de tokens, obtient le même résultat en détection des vulnérabilités.
AISLE a conçu trois séries de tests, chacune correspondant à des tâches de cybersécurité différentes, avec des difficultés et des natures distinctes.
La première série est un test de faux positifs pour OWASP (Open Web Application Security Project).
En traduction : une portion de code de requête Java SQL ressemble à une attaque par injection SQL (SQL Injection), mais en réalité, la logique est sûre. La bonne réponse est : ce n’est pas une vulnérabilité.
Les résultats des tests montrent un effet de scaling (mise à l’échelle) presque inversé : le petit modèle open source GPT-OSS-20b (3,6B paramètres actifs, $0.11/M tokens) suit correctement la logique du programme et conclut qu’il est inoffensif.
À l’inverse, Claude Sonnet 4.5, l’ensemble de la série GPT-4.1/5.4 (sauf o3 et pro), l’ensemble de la famille Anthropic jusqu’à Opus 4.5, classent tous avec assurance des faux positifs comme des vulnérabilités à haut risque. Seuls quelques modèles de toute première catégorie — o3, OpenAI-pro, Sonnet 4.6, Opus 4.6 — répondent correctement.
La deuxième série est une vulnérabilité FreeBSD NFS, le CVE-2026-4747, spécialement mise en avant dans la publication phare de Mythos : une vulnérabilité d’exécution de code à distance non autorisée vieille de 17 ans.
Résultat : les 8/8 modèles testés détectent tous avec succès, y compris ce petit modèle à 3,6B paramètres actifs. Tous les modèles identifient correctement un stack buffer overflow (débordement de mémoire tampon de la pile), calculent l’espace restant et l’évaluent comme un Critical RCE.
La conclusion d’AISLE est la suivante : ces capacités de détection sont déjà « industrialisées ».
La troisième série est une vulnérabilité OpenBSD SACK (historique de 27 ans), nécessitant de véritables raisonnements mathématiques : suivre une chaîne logique multi-étapes de débordement d’entier avec signe (signed integer overflow), à partir du raisonnement autour de la trace.
La difficulté augmente nettement, et les performances des modèles se différencient. GPT-OSS-120b (5,1B paramètres actifs) reproduit entièrement la chaîne d’exploitation, AISLE l’évalue A+. La version open source Kimi K2 obtient A-. Tandis que Qwen3 32B aboutit à une conclusion erronée du type « le code est robuste », évaluée F.
Même sur cette tâche plus difficile, un modèle open source extrêmement peu coûteux parvient à réaliser la même démonstration que le système phare.
( Pourquoi un modèle plus grand ne signifie pas un système plus sûr
Le véritable point de cette étude n’est pas « un petit modèle suffit », mais que la structure des capacités de cybersécurité de l’IA est bien plus complexe que ce que le public imagine.
AISLE décompose la chaîne d’outils en cybersécurité de l’IA en cinq sous-tâches indépendantes :
La nature de la mise à l’échelle (scaling) de chaque sous-tâche est différente, et les capacités de modèle requises ne sont pas les mêmes. L’annonce de Mythos intègre ces cinq niveaux comme un système complet, mais en réalité, leurs besoins en modèles sont extrêmement différents : certaines sous-tâches sont déjà complètement saturées avec 3,6B paramètres, tandis que d’autres nécessitent des capacités de raisonnement complexes.
Cela fait écho au concept de « Jagged Frontier » (frontière irrégulière) proposé en 2023 par les chercheurs de Harvard Business School Dell’Acqua et Mollick, etc. : la frontière des capacités de l’IA n’est pas une courbe lisse, mais une bordure en dents de scie, avec des creux et des bosses ; sur certaines tâches, elle dépasse largement les humains, mais sur des tâches adjacentes, elle devient étonnamment fragile.
L’étude montre que si les utilisateurs déploient l’IA à l’intérieur de la frontière des capacités, la productivité augmente d’environ 40 % ; mais s’ils l’étendent imprudemment au-delà de la frontière, les performances diminuent au contraire de 19 %.
Dans ce cadre, AISLE propose une inférence plus directement applicable : « Mille détectives “suffisants” cherchent partout, plutôt qu’un détective génial qui devine où chercher, et cela permet de trouver plus de vulnérabilités. »
Déployer massivement des modèles à faible coût pour réaliser des scans à large spectre peut, en termes d’efficacité globale, surpasser une planification prudente utilisant un seul modèle haut coût. AISLE indique qu’à partir du milieu de 2025, elle exécute un système de découverte de vulnérabilités sur des objectifs réels : elle a trouvé 15 CVE dans OpenSSL (dont 12 proviennent d’une seule version de sécurité, avec CVSS 9.8 Critical), 5 dans curl, et au total plus de 180 CVE validées par des tiers externes dans plus de 30 projets.
) Où se trouve le fossé de protection — et où il ne se trouve pas
Cette analyse n’est ni une critique exhaustive d’Anthropic, ni un simple soutien sans réserve.
AISLE précise clairement que la signification de Mythos consiste à prouver que la catégorie « cybersécurité basée sur l’IA » est réelle : ce n’est pas seulement une idée mise en scène dans un laboratoire de démonstration, mais un système capable de fonctionner sur de véritables objectifs. Ce qu’Anthropic cherche à maximiser, c’est la « densité de sagesse par token », ce qui conserve une valeur difficilement remplaçable, même pour des tâches nécessitant un raisonnement approfondi.
Mais AISLE souligne en même temps un problème plus fondamental pour l’ensemble de l’industrie : le fossé de protection se trouve dans le système, pas dans le modèle lui-même.
Dans le domaine de la cybersécurité, AISLE estime que ce qui crée la vraie différenciation, ce sont des conceptions d’architecture intégrant une expertise approfondie, par exemple : comment décomposer les tâches, comment planifier l’exécution de modèles de différents coûts entre les sous-tâches, et comment maintenir la confiance des mainteneurs dans l’environnement de production.
Un système capable de trouver des vulnérabilités CVSS 9.8 dans OpenSSL, et un système qui détecte, dans une démonstration contrôlée, des vulnérabilités connues correspondant à des motifs, ne nécessitent pas seulement un modèle plus puissant, mais une logique d’ingénierie totalement différente.
En résumé, le rapport d’AISLE conclut : des modèles plus bon marché et plus ouverts peuvent déjà reproduire une partie de ses démonstrations clés. Le vrai problème n’est peut-être pas de savoir quel modèle est le plus fort, mais plutôt : qui fait d’abord fonctionner en production l’architecture des cinq sous-tâches.
![]###https://img-cdn.gateio.im/social/moments-e4b0e40da9-1b7138e903-8b7abd-badf29
Articles similaires
Claude Mythos menace-t-il la sécurité financière ? Le Trésor américain et le président de la Réserve fédérale se réunissent en urgence et mettent en garde contre les risques
Google lance Gemini Robotics ER 1.6 : modèle de robot SOTA, excellent en raisonnement visuel et spatial
Rapport économique du président des États-Unis 2026 : retour sur la volatilité de 2025, prévisions d’une croissance stable sur les dix prochaines années
Les services LLM de B.AI dépassent 1 million d’utilisateurs, en mettant à l’échelle une infrastructure d’IA axée sur la confidentialité dès la conception
Claude Mythos : une menace pour la sécurité financière ? Le Trésor américain et le président de la Réserve fédérale se réunissent d’urgence pour avertir des risques
NVIDIA lance Ising, première série de modèles d’IA open source pour l’informatique quantique