Altman accuse Anthropic de « marketing fondé sur la peur » pour le mythe de Claude

CryptoFrontier

Le PDG d’OpenAI, Sam Altman, a accusé le concurrent Anthropic d’utiliser un « marketing fondé sur la peur » pour promouvoir son modèle d’IA Claude Mythos, selon des commentaires formulés dans le podcast Core Memory animé par la journaliste technologique Ashlee Vance. Altman a fait valoir que le discours axé sur la peur vise à justifier le maintien des systèmes d’IA avancés sous le contrôle d’un « groupe plus restreint de personnes », bien qu’il ait reconnu que certaines préoccupations liées à la sécurité sont légitimes.

Critique marketing d’Altman

Altman a déclaré que, s’il existe des inquiétudes valables concernant la sécurité de l’IA, « c’est manifestement un marketing incroyable de dire : “Nous avons construit une bombe. Nous sommes sur le point de la lâcher sur votre tête. Nous allons vous vendre un abri anti-bombes pour $100 million. Vous en avez besoin pour faire tourner tout votre bazar, mais uniquement si nous vous choisissons comme client.” » Il a noté que « ce n’est pas toujours facile » d’équilibrer les nouvelles capacités de l’IA avec la conviction que la technologie devrait être accessible.

Altman a reconnu que « il y aura des préoccupations de sécurité légitimes », mais il a suggéré que des messages fondés sur la peur pourraient être instrumentalisés pour justifier un contrôle centralisé. Il a déclaré : « si ce que vous voulez, c’est du genre “on a besoin du contrôle de l’IA, juste nous, parce qu’on sont les gens dignes de confiance”, je pense que le marketing fondé sur la peur est probablement la manière la plus efficace de justifier ça. »

Capacités de Claude Mythos et distribution

Le modèle Anthropic Claude Mythos a été dévoilé le mois dernier et a suscité un intérêt considérable de la part des chercheurs, des gouvernements et de l’industrie de la cybersécurité. D’après des tests, le modèle peut identifier de manière autonome des vulnérabilités logicielles et exécuter des opérations cyber complexes. Lors des tests, Mythos a identifié des centaines de vulnérabilités dans le navigateur Firefox de Mozilla et a démontré sa capacité à mener des simulations d’attaques cyber à plusieurs étapes.

Anthropic a restreint l’accès au système via Project Glasswing, un programme limité accordant à des entreprises sélectionnées—dont Amazon, Apple et Microsoft—la possibilité de tester ses capacités. La société a également engagé des ressources considérables pour soutenir des efforts de sécurité open-source, en arguant que les défenseurs devraient bénéficier de la technologie avant qu’elle ne devienne plus largement disponible.

Encadrement de la sécurité et réponse du gouvernement

Anthropic a présenté les capacités de Mythos comme une percée défensive—permettant une détection plus rapide des failles critiques—et comme un risque potentiel offensif si elles sont détournées. Le modèle a aussi mis en évidence les limites des systèmes actuels d’évaluation de l’IA, Anthropic reconnaissant que de nombreux benchmarks actuels en cybersécurité ne suffisent plus à mesurer les capacités de son système le plus récent.

Malgré des appels au sein de certaines parties du gouvernement américain pour faire cesser l’utilisation de la technologie en raison de ses applications potentielles dans la guerre et la surveillance, la National Security Agency aurait commencé à tester une version d’aperçu du modèle sur des réseaux classifiés. Sur le marché de prédiction Myriad, les utilisateurs ont donné une probabilité de 49 % que Claude Mythos soit publié au grand public d’ici le 30 juin.

Un groupe de chercheurs a affirmé la semaine dernière être parvenus à reproduire les résultats de Mythos en utilisant des modèles accessibles publiquement.

Rhétorique plus large autour du déploiement de l’IA

Altman a suggéré que la rhétorique concernant des systèmes d’IA extrêmement dangereux pourrait augmenter à mesure que les capacités s’améliorent, mais il a estimé que toutes ces affirmations ne devraient pas être prises pour argent comptant. Il a déclaré : « Il y aura beaucoup plus de rhétorique au sujet de modèles trop dangereux pour être déployés. Il y aura aussi des modèles très dangereux qui devront être déployés d’une manière ou d’une autre. Je suis sûr que Mythos est un excellent modèle pour la cybersécurité, mais je pense que nous avons un plan dont nous sommes satisfaits pour la façon dont nous allons mettre ce type de capacité dans le monde. »

Altman a aussi écarté les suggestions selon lesquelles OpenAI réduirait ses dépenses d’infrastructure, affirmant que la société continuerait d’étendre sa capacité de calcul. Il a noté : « Je ne sais pas d’où ça vient… les gens veulent vraiment raconter l’histoire du désengagement. Mais très bientôt, ce sera encore, du genre : “OpenAI est tellement imprudent. Comment peuvent-ils dépenser une somme aussi folle ?” »

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
GateUser-4bd1cc87vip
· Il y a 3h
Le terme « marketing de la peur » une fois sorti, c'est pratiquement la guerre de relations publiques qui commence.
Voir l'originalRépondre0
GateUser-e6dafce6vip
· Il y a 6h
Peu importe qui a tort ou raison, au final, c'est la puissance du produit et l'écosystème qui comptent, les disputes ne peuvent gagner qu'une journée.
Voir l'originalRépondre0
PermissionedFuryvip
· Il y a 6h
Je veux surtout savoir ce qu'il y a après « justifier la conservation » — est-ce une référence à la fermeture du code ou au contrôle des permissions ?
Voir l'originalRépondre0
GateUser-a65ee044vip
· Il y a 6h
Ne te dispute pas, mets rapidement tout le contexte : Qu'est-ce que Claude Mythos, et quel est le lien avec Claude 3/4 ?
Voir l'originalRépondre0
RugPullEnjoyervip
· Il y a 6h
Les schémas de reproche entre les entreprises d'IA : tu n'es pas sécurisé, tu n'es pas transparent, tu induis le public en erreur.
Voir l'originalRépondre0
BridgeHopBellavip
· Il y a 6h
Je pense aussi que « basé sur la peur » pourrait aussi être un rappel des risques, mais la communication trop exagérée en a déformé le sens.
Voir l'originalRépondre0
LendingRateAnxietyvip
· Il y a 6h
Écouter des podcasts, cette façon de faire des déclarations, sait très bien choisir le contexte, ce n'est pas une déclaration officielle mais cela peut faire monter la cadence.
Voir l'originalRépondre0
Mint-ColoredCalmnessvip
· Il y a 6h
En réalité, les utilisateurs se soucient uniquement de : est-ce facile à utiliser, est-ce cher, et y a-t-il un risque de suspension soudaine du compte.
Voir l'originalRépondre0
PrivateKeyInAGlassBottlevip
· Il y a 6h
On a l'impression que cette vague prend position en faveur de « l'ouverture vs la fermeture », en qualifiant d'abord l'autre partie de manipuler l'opinion publique par la peur.
Voir l'originalRépondre0
Paper-SculptedOctopusPoolvip
· Il y a 6h
Les deux côtés parlent de sécurité, mais la sécurité est-elle vraiment une question technique ou une barrière commerciale ?
Voir l'originalRépondre0
Afficher plus