Message de Gate News, 29 avril — Le PDG d’OpenAI, Sam Altman, a déclaré dans une interview accordée à Ben Thompson sur Stratechery que la tarification basée sur des jetons n’est pas un modèle viable à long terme pour les services d’IA. En prenant GPT-5.5 comme exemple, Altman a noté que même si le prix par jeton est nettement plus élevé que celui de GPT-5.4, le modèle utilise bien moins de jetons pour accomplir la même tâche, ce qui signifie que les clients ne se soucient pas du nombre de jetons : ils ne se soucient que de savoir si la tâche est accomplie et du coût total.
“Nous ne sommes pas une usine à jetons ; nous ressemblons davantage à une usine d’intelligence”, a déclaré Altman. “Les clients veulent acheter le maximum d’intelligence pour le moins d’argent. Que le travail sous-jacent soit réalisé par un grand modèle qui utilise peu de jetons ou par un petit modèle qui en utilise beaucoup ne change rien pour eux.” Il a ajouté que la base actuelle de clients d’OpenAI exige de plus en plus de capacité plutôt que de négocier les prix, avec bien plus de clients qui disent « donnez-nous plus de capacité, quel qu’en soit le coût » que ceux qui demandent des remises.
En faisant un parallèle avec les services publics, Altman a expliqué que contrairement à l’eau ou à l’électricité — où des prix plus bas n’augmentent pas significativement la consommation — la demande en IA évolue différemment. « Tant que le prix est suffisamment bas, je continuerai à en utiliser davantage. Aucun autre service public ne fonctionne comme ça », a-t-il déclaré. Le PDG d’AWS, Matt Garman, a ajouté que les prix de la puissance de calcul ont diminué de plusieurs ordres de grandeur au cours des 30 dernières années, mais que davantage de capacité de calcul est vendue aujourd’hui qu’à n’importe quel moment auparavant.
Altman a également décrit ChatGPT comme « le premier véritable produit grand public à grande échelle depuis Facebook », en reconnaissant que même si l’IA était censée perturber la recherche, les véritables gains sont venus de ChatGPT lui-même et de l’API Codex. Il a noté que « Google est encore sous-estimé à bien des égards ».
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
Rapport de recherche Crypto de a16z : le taux d’exploitation des vulnérabilités DeFi par des agents IA atteint 70%
Selon le rapport de recherche publié par a16z Crypto le 29 avril, sous condition doter les agents IA de connaissances structurées propres à un domaine, le taux de réussite de la reproduction d’une faille de manipulation du prix de l’Ethereum atteint 70 % ; dans un environnement bac à sable sans aucune connaissance de domaine, le taux de réussite n’est que de 10 %. Le rapport enregistre également des cas où des agents IA contournent de manière indépendante les limites du bac à sable pour accéder à des informations sur les transactions futures, ainsi que des schémas de défaillance systématiques lorsque les agents parviennent à établir des plans d’attaque multi-étapes et rentables.
MarketWhisperIl y a 5m
Les modèles d’OpenAI migreront progressivement vers la puce Trainium sur mesure d’Amazon, déclare Altman — « Je m’y réjouis »
Message de Gate News, 29 avril — Les modèles d’OpenAI qui tournent sur Amazon Web Services’ Bedrock migreront progressivement vers Trainium, la puce IA conçue sur mesure par Amazon, d’après des remarques récentes du PDG d’OpenAI Sam Altman et de responsables d’AWS. À l’heure actuelle, les modèles fonctionnent dans un environnement mixte en utilisant à la fois des GPU et des Tr
GateNewsIl y a 59m
Le modèle open source Ling-2.6-flash d’Ant Group : 104B de paramètres avec 7,4B actifs, atteint plusieurs repères SOTA
Message de Gate News, 29 avril — Les poids du modèle flash Ling-2.6 d’Ant Group sont désormais open source, alors qu’ils n’étaient auparavant disponibles que via une API. Le modèle présente 104 milliards de paramètres au total, 7,4 milliards activés par inférence, une fenêtre de contexte de 256K et une licence MIT. Des versions en BF16, FP8 et INT4
GateNewsIl y a 1h
Sam Altman publie des captures d’écran du double mode de Codex, séparant officiellement les fonctions bureau et programmation
Capture d’écran et déclaration publiées sur la plateforme X le 29 avril par Sam Altman, PDG d’OpenAI. Codex est en train de lancer une nouvelle interface de guidage ; au moment de la première connexion, les utilisateurs doivent choisir entre deux modes : Excelmogging et Codemaxxing. Les utilisateurs actifs hebdomadaires de Codex dépassent actuellement 4 millions, et les cas d’utilisation se sont étendus de la génération de code à des usages non techniques.
MarketWhisperIl y a 1h
Codex d’OpenAI lance une interface à deux modes : Excelmogging pour le travail de bureau, Codemaxxing pour la programmation
Message de Gate News, 29 avril — Le PDG d’OpenAI, Sam Altman, a annoncé aujourd’hui sur X une interface Codex repensée, avec deux modes distincts pour les utilisateurs. « Excelmogging » cible les tâches bureautiques quotidiennes grâce à une interface simplifiée et au slogan « Same tools, simpler interface, » avec des tâches d’exemple comme
GateNewsIl y a 2h
Média américain : un projet de décret présidentiel de la Maison-Blanche autorise le modèle Anthropic Mythos à entrer dans le gouvernement
Selon des informations relayées par des personnes au fait des dossiers, citées par Axios le 28 avril, la Maison-Blanche est en train d’élaborer des lignes directrices autorisant les organismes fédéraux à contourner l’appréciation des risques liés à la chaîne d’approvisionnement d’Anthropic (SCRD) et à introduire de nouveaux modèles à des fins gouvernementales, dont les modèles de Mythos d’Anthropic. À ce sujet, la Maison-Blanche a publié une déclaration officielle indiquant que toute déclaration de politique serait directement publiée par le président, et que toute autre affirmation n’est que spéculation.
MarketWhisperIl y a 2h