Anthropic publie Claude Opus 4.7 avec des capacités de cybersécurité affaiblies

Anthropic a publié une version améliorée de son modèle phare, Claude Opus 4.7, le 16 avril à (l’heure locale). Par rapport au modèle Opus 4.6 précédent, Opus 4.7 montre des « améliorations significatives » dans les capacités avancées d’ingénierie logicielle, en particulier sur des tâches difficiles, avec une rigueur et une cohérence renforcées dans des opérations complexes et de longue durée, ainsi que des capacités de vision améliorées. Cependant, Anthropic a volontairement affaibli les capacités d’attaque-défense en cybersécurité du modèle pendant l’entraînement et a introduit des mécanismes de sécurité pour détecter et bloquer automatiquement les requêtes interdites ou à haut risque.

Performances et benchmarks

Lors des tests de référence, Opus 4.7 a obtenu des scores généralement plus élevés que le modèle Opus 4.6 précédent et le GPT-5.4 de ses concurrents. Toutefois, Anthropic a souligné que les capacités globales d’Opus 4.7 ne correspondent pas au modèle le plus puissant de la société, Claude Mythos Preview. D’après Anthropic : « En déployant et en exploitant ces mécanismes de protection dans le monde réel, nous accumulerons de l’expérience pour, à terme, permettre un déploiement plus large des modèles de niveau Mythos. »

Déploiement et tarification

Opus 4.7 est désormais en ligne sur l’ensemble des produits Claude et des interfaces d’API, avec une intégration à Amazon Bedrock, Google Cloud Vertex AI et les services Microsoft Foundry. La tarification reste identique à celle d’Opus 4.6 : $5 par million de tokens d’entrée et $25 par million de tokens de sortie.

Changements de consommation de tokens

Deux changements dans Opus 4.7 par rapport à Opus 4.6 affecteront l’utilisation des tokens. D’abord, Opus 4.7 utilise un tokenizer mis à jour, ce qui améliore la manière dont le modèle traite le texte. Cependant, cela signifie que des entrées identiques peuvent consommer plus de tokens—environ 1 à 1,35 fois la consommation de la génération précédente.

Ensuite, Opus 4.7 effectue davantage de raisonnement avec une « intensité de réflexion » plus élevée, notamment lors des tours suivants dans des scénarios agentiques. Cela améliore la fiabilité sur des problèmes complexes, mais génère des tokens de sortie supplémentaires.

Token consumption increase visualization Augmentation de la consommation de tokens d’Opus 4.7. Source : Anthropic

Analyse du marché et contexte

Les analystes décrivent Opus 4.7 comme un modèle « transitionnel ». L’analyste en investissement Adam Button a noté que la sortie d’Opus 4.7 renforce le récit d’Anthropic autour des « modèles de type divin » comme Mythos et confirme le scepticisme du marché : les modèles payants disponibles publiquement sont essentiellement des versions « lite » limitées par des mécanismes de sécurité.

Contexte de l’entreprise et étape financière

Anthropic, fondée en 2021 par d’anciens employés d’OpenAI, développe la série de modèles de langage à grande échelle Claude. Le 6 avril, Anthropic a annoncé que son revenu annualisé (ARR) dépassait $300 un milliard, soit une hausse significative par rapport à $9 un milliard à la fin de 2025. L’entreprise poursuit activement une introduction en bourse.

Préoccupations relatives au risque en cybersécurité

Les dirigeants d’Anthropic ont à plusieurs reprises averti de l’impact de l’IA sur la cybersécurité. Selon des rapports datés du 10 avril à (l’heure locale), la secrétaire au Trésor américaine Yellen et le président de la Réserve fédérale Powell ont tenu une réunion d’urgence avec des responsables de Wall Street le 7 avril pour discuter de la manière dont le dernier modèle d’IA Mythos d’Anthropic pourrait accroître les risques en cybersécurité. Anthropic a déclaré que Mythos n’est pas adapté à un déploiement public, car le modèle pourrait être détourné par des cybercriminels et des espions. La société fournit sélectivement un accès à Mythos aux principales entreprises mondiales de cybersécurité et de logiciels.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Les publicités de ChatGPT arrivent en Australie et en Nouvelle-Zélande : Free et les utilisateurs Go d’abord, et les formules payantes restent sans publicité

OpenAI étend ChatGPT aux publicités le 17 avril 2023 en Australie, en Nouvelle-Zélande et au Canada, pour les utilisateurs Free et Go, tandis que les utilisateurs payants n’ont pas de publicités. Cette initiative marque la deuxième voie de commercialisation de l’IA, tout en tenant compte des risques commerciaux et réglementaires ; la présence de publicités peut favoriser la conversion vers l’abonnement payant.

ChainNewsAbmediaIl y a 1h

Hyundai Motor Group se réorganise autour de l’IA et de la robotique, vise 30 000 robots Atlas d’ici 2030

Le groupe Hyundai Motor restructure ses activités pour se concentrer sur l’IA et la robotique, en réduisant ses opérations traditionnelles. Il prévoit d’investir 34,3 milliards de dollars dans la robotique d’ici 2030 et vise à lancer un modèle de robotique en tant que service, en collaboration avec Google DeepMind et NVIDIA.

GateNewsIl y a 4h

NEA examine l’utilisation de l’intelligence artificielle dans la réglementation nucléaire

Le groupe de travail de l’OCDE sur les nouvelles technologies a tenu un atelier les 25 et 26 mars, portant sur la manière dont l’intelligence artificielle peut être appliquée à la supervision réglementaire et aux opérations internes au sein des autorités nucléaires. Résumé L’atelier de l’OCDE a examiné des applications réelles de l’IA dans la réglementation nucléaire, avec

CryptonewsIl y a 6h

La Chine mettra à l’épreuve 300+ robots humanoïdes lors du semi-marathon de Pékin le 19 avril

Le deuxième semi-marathon de robots à Pékin met en compétition plus de 300 robots humanoïdes issus de 70 équipes sur un parcours de 21 km. Les avancées en matière de déplacement autonome sont mises en avant, avec 40 % des robots fonctionnant sans contrôle. La Chine domine le marché des robots humanoïdes, malgré des difficultés de production.

GateNewsIl y a 9h

Les États-Unis cherchent à augmenter leurs importations d’uranium namibien pour alimenter des centrales nucléaires propulsées par l’IA

Les États-Unis envisagent d’augmenter leurs importations d’uranium en provenance de Namibie afin de soutenir l’énergie nucléaire pour des centres de données liés à l’IA, alors que la Chine domine le secteur de l’uranium de la Namibie. La hausse des prix de l’uranium relance l’intérêt minier, malgré les difficultés d’approvisionnement en eau dans la région aride.

GateNewsIl y a 9h

OpenAI Executives Bill Peebles and Kevin Weil Depart in Leadership Reshuffle

OpenAI executives Bill Peebles and Kevin Weil announced their exits, part of a series of leadership changes as the company decentralizes its operations. Their departures follow several other high-profile exits and a shift in company structure.

GateNewsIl y a 10h
Commentaire
0/400
StargazingWithAMirroredSpherevip
· 04-17 09:22
De 4.6 à 4.7, cela est dit « significatif », mais on ne sait pas à quel point cela améliore la débogage de longues chaînes, la refonte et la couverture des tests ?
Voir l'originalRépondre0
OrangePeelRadiovip
· 04-17 07:47
Cherchez une référence : est-il possible de détecter tous les bugs cachés dans une PR complexe en une seule fois ? Ne vous contentez pas d’écrire de petits démos.
Voir l'originalRépondre0
BlackVelvetBluePeonyvip
· 04-17 07:38
Anthropic, ce rythme est un peu intense, Claude ressemble de plus en plus à un « ingénieur senior » plutôt qu'à un chatbot.
Voir l'originalRépondre0
ReminderOfWavesCrashingAgainstvip
· 04-17 07:35
L'amélioration des compétences en génie logiciel est très importante, les tâches au niveau du référentiel de code sont le véritable champ de bataille.
Voir l'originalRépondre0
StargazingUnderTheGlassDomevip
· 04-17 07:32
4.7 Enfin arrivé, hâte de tester en pratique.
Voir l'originalRépondre0
GateUser-5d719abavip
· 04-17 07:26
J'espère que ce ne sera pas encore une augmentation de classement, dans les projets réels dès qu'il y a des conflits de dépendances ou des problèmes d'environnement, ça échoue.
Voir l'originalRépondre0
TheWaveOfRasterizationvip
· 04-17 07:20
Je suis plus préoccupé par la fiabilité de l'appel d'outils et des modifications multi-fichiers : peut-on maintenir la cohérence, éviter de casser plusieurs endroits en modifiant un seul ?
Voir l'originalRépondre0
StrollingOnTheEdgeOfTheDaovip
· 04-17 07:19
En attendant que la communauté compare les performances SWE de GPT/DeepSeek, en particulier la navigation dans de grands dépôts, la localisation des issues, et la vitesse de livraison de bout en bout.
Voir l'originalRépondre0
BluePeonyObservervip
· 04-17 07:19
4.7 de «renforcement de la rigueur» semble plus prudent, peut-être moins de bricolage avec l'API ? C'est trop important.
Voir l'originalRépondre0
Afficher plus