Amazon a injecté $5 billion dans Anthropic lundi et a obtenu un engagement de la société d’intelligence artificielle (AI) afin de dépenser plus de $100 billion en infrastructure de services Web Amazon au cours des dix prochaines années.
Points clés :
L’accord, annoncé conjointement le 20 avril, s’appuie sur les $8 billion qu’Amazon a déjà engagés pour Anthropic depuis 2023, portant le capital investi total à $13 billion. Amazon a laissé la porte ouverte à jusqu’à $20 billion supplémentaires dans un financement futur lié à des jalons commerciaux, ce qui porterait le chiffre potentiel global à environ $33 billion. Amazon reste toutefois un investisseur minoritaire.
L’engagement de dépenses d’Anthropic couvre les générations actuelles et futures de puces AWS Trainium et Graviton, ainsi que des dizaines de millions de cœurs Graviton. L’intégration verticale consolide jusqu’à 5 gigawatts de capacité de calcul nouvelle pour entraîner et déployer des modèles Claude. Une capacité significative de Trainium2 entre en ligne au deuxième trimestre 2026, avec une attente d’environ 1 gigawatt de capacité combinée Trainium2 et Trainium3 d’ici la fin de l’année.
Andy Jassy, le directeur général d’Amazon, a attribué la demande croissante au profil de performance et de coûts de la puce sur mesure de l’entreprise. « L’engagement d’Anthropic de faire tourner ses grands modèles de langage sur AWS Trainium pour la prochaine décennie reflète les progrès que nous avons réalisés ensemble sur le silicium sur mesure », a déclaré Jassy.
L’accord étend également les capacités d’inférence d’Anthropic en Asie et en Europe afin de répondre à la hausse de la demande internationale. AWS continuera d’assurer le rôle de principal fournisseur de formation et de cloud d’Anthropic pour les charges de travail critiques pour la mission.
Un changement opérationnel prend effet immédiatement. Le console complet de la plateforme Claude est désormais disponible directement au sein d’AWS, permettant aux clients d’y accéder via leur compte AWS existant, leurs contrôles et leur facturation, sans identifiants ni contrats distincts.
Claude reste le seul modèle d’IA de pointe disponible sur les trois grandes plateformes cloud : AWS Bedrock, Google Cloud Vertex AI et Microsoft Azure Foundry. Plus de 100 000 clients exécutent déjà des modèles Claude sur Amazon Bedrock.
Anthropic et les Annapurna Labs d’Amazon continueront de collaborer au développement de silicium sur mesure. Le projet Rainier, un cluster de calcul d’IA à grande échelle construit autour de près de 500 000 puces Trainium2, est appelé à s’étendre dans le cadre de l’arrangement élargi.
Le contexte financier explique en partie l’urgence. Les revenus au rythme annuel d’Anthropic ont augmenté à plus de $30 billion, contre environ $9 billion à la fin de 2025. Cette croissance, portée par l’adoption par les entreprises, les développeurs et les consommateurs de Claude via les offres gratuites, Pro, Max et Team, a mis sous pression l’infrastructure existante, en particulier pendant les heures de pointe.
L’accord Amazon-Anthropic s’inscrit dans une fenêtre récente qui a remodelé le financement privé de l’IA. De la mi-février à la mi-avril 2026, OpenAI et Anthropic ont ensemble clôturé des tours de financement totalisant plus de $150 billion au total, le plus grand afflux de capitaux privés de l’histoire de la tech.
L’argent provenait de partenaires stratégiques du big tech, de fonds souverains, de sociétés de capital-risque et, dans le cas d’OpenAI, d’investisseurs particuliers. La hausse des coûts des GPU, l’expansion des implantations de centres de données et les exigences énergétiques attirent les capitaux, parallèlement à une croissance explosive des revenus dans les deux laboratoires et à la préparation d’offres publiques potentielles.
Dario Amodei, directeur général d’Anthropic et cofondateur, a déclaré que la demande redéfinit la manière dont l’entreprise fonctionne. « Nos utilisateurs nous disent que Claude devient de plus en plus essentiel à la façon dont ils travaillent, et nous devons construire l’infrastructure pour suivre le rythme de la demande qui croît rapidement », a déclaré Amodei.
Le PDG d’Anthropic a ajouté :
« Notre collaboration avec Amazon nous permettra de continuer à faire progresser la recherche en IA tout en livrant Claude à nos clients, y compris les plus de 100 000 personnes qui construisent sur AWS. »
Les clients exécutant Claude via AWS Bedrock incluent Lyft, qui a fait état d’une amélioration de 87% de la vitesse de résolution du service client, et Pfizer, qui a cité une réduction de 55% des coûts d’infrastructure et 16 000 heures de recherche annuelles économisées. La structure de cet accord particulier suit un schéma observé dans les partenariats entre le big tech et les laboratoires d’IA : il s’agit d’échanger des garanties de calcul à long terme contre des participations au capital et un accès privilégié à la plateforme.