Points clés
- OpenAI a conclu un accord de 38 milliards de dollars avec Amazon Web Services (AWS) pour sécuriser son infrastructure cloud.
- OpenAI obtient l'accès à des centaines de milliers de GPU Nvidia pour l'entraînement et la mise à l'échelle de ses modèles d'IA de nouvelle génération.
- L'accord renforce la position d'AWS dans la course à l'IA et souligne la centralisation croissante de la puissance de calcul parmi les principaux clouds technologiques.
Qu'est-ce que l'accord OpenAI-AWS : un pari de 38 milliards de dollars sur sept ans sur le calcul
OpenAI a signé un accord de services cloud de 38 milliards de dollars sur sept ans avec Amazon Web Services (AWS), s'assurant l'accès à des centaines de milliers de GPU Nvidia pour entraîner et déployer ses modèles de nouvelle génération. L'accord, annoncé lundi, marque le mouvement stratégique le plus important d'OpenAI depuis sa restructuration d'entreprise la semaine dernière, qui a donné au créateur de ChatGPT une plus grande indépendance financière et a assoupli le contrôle de Microsoft sur ses opérations.
Selon l'accord, AWS commencera à fournir des accélérateurs Nvidia GB200 et GB300 dans des clusters de centres de données dédiés, avec une capacité totale attendue en ligne d'ici fin 2026 et la possibilité de s'étendre jusqu'en 2027. Pour Amazon, l'accord signale un retour décisif dans la course à l'IA. Pour OpenAI, il représente le plus grand contrat de calcul jamais signé par une entreprise privée d'IA.
Ce partenariat propulse instantanément AWS au centre de l'infrastructure d'IA, contrant les craintes qu'il soit tombé derrière Microsoft Azure et Google Cloud. Les actions d'Amazon ont bondi de 5 pour cent mardi, ajoutant près de 140 milliards de dollars à sa valeur marchande — son plus grand rallye de deux jours depuis des années.
La nouvelle monnaie de l'intelligence : le calcul
Si les données étaient le pétrole de l'ère numérique, le calcul en est l'électricité. "Mettre à l'échelle l'IA de pointe nécessite un calcul massif et fiable", a déclaré Sam Altman, PDG d'OpenAI, dans un communiqué. Cette phrase résume la logique derrière l'accord : dans la course vers l'intelligence artificielle générale (IAG), l'accès à la capacité de calcul — et non les algorithmes — définit désormais le leadership.
OpenAI prévoit de déployer plus de 30 gigawatts de puissance de calcul au cours de la prochaine décennie, pour un investissement en capital d'environ 1,4 billion de dollars. Altman a évoqué un objectif audacieux : ajouter un gigawatt de calcul chaque semaine, à un coût actuel dépassant 40 milliards de dollars par GW. Pour mettre cela en perspective, chaque gigawatt pourrait alimenter environ 830 000 foyers américains.
Cette échelle convertit le calcul en un marché de capitaux à part entière. Les capital-risqueurs, les fonds souverains et les géants de la technologie échangent des capacités d'infrastructure comme des contrats à terme sur l'énergie. L'économie mondiale de l'intelligence — de l'entraînement des grands modèles de langage à la gestion de milliards de requêtes d'IA quotidiennes — repose désormais sur la capacité à sécuriser, financer et exploiter des centres de données à forte densité de GPU à l'échelle planétaire.
Pourquoi c'est important : la spirale de centralisation
L'accord AWS-OpenAI cristallise une réalité inconfortable : l'industrie de l'IA se consolide autour d'une poignée de clouds hyperscale, de fournisseurs de puces et de fournisseurs de modèles. Microsoft, Amazon et Google sont maintenant au centre d'une boucle fermée où l'argent, le calcul et l'intelligence circulent parmi les mêmes quelques réseaux.
Chaque nouvelle itération de modèle exige exponentiellement plus de calcul. Chaque bond en matière de calcul nécessite des dépenses en capital de plusieurs milliards de dollars. Le résultat est une boucle de rétroaction qui privilégie les acteurs en place et élève les barrières à l'entrée pour tous les autres.
Eric Yang, PDG de Gradient — un réseau de recherche d'IA décentralisé soutenu par Pantera Capital et Multicoin Capital — a décrit le phénomène de manière succincte :
"L'ampleur de ces nouveaux accords cloud montre à quelle vitesse l'IA est devenue un marché de capitaux à part entière. Les plus grands acteurs de l'industrie échangent désormais efficacement le pouvoir pour contrôler l'intelligence comme d'autres échangent l'énergie — concentrant un énorme pouvoir financier et opérationnel chez quelques fournisseurs. Le prochain défi consiste à s'assurer que l'intelligence elle-même ne reste pas piégée là-bas."
Les paroles de Yang soulignent une division philosophique croissante : l'avenir de l'IA devrait-il appartenir aux clouds centralisés, ou à des systèmes distribués et souverains qui fonctionnent à travers des réseaux et des appareils indépendants ?
De l'ouvert à l'opaque : le changement structurel d'OpenAI
Le timing de l'accord AWS suit la restructuration radicale d'OpenAI, qui éloigne l'entreprise de sa charte originale à but non lucratif. La réorganisation supprime le "droit de premier refus" de Microsoft pour la fourniture de services cloud et positionne OpenAI pour lever des capitaux externes plus librement — y compris une potentielle introduction en bourse de 1 billion de dollars, selon Reuters.
Depuis sa fondation en 2015, la trajectoire d'OpenAI a reflété l'évolution plus large de l'IA elle-même : d'un collectif de recherche ouvert à une plateforme à la recherche de profits. Le lancement de ChatGPT fin 2022 a fait de l'IA un concept familier, propulsant le taux de revenus de l'entreprise vers 20 milliards de dollars d'ici fin 2025. Pourtant, elle reste déficitaire, en grande partie à cause du coût immense de l'entraînement des modèles et de l'inférence.
En diversifiant au-delà du cloud Azure de Microsoft — tout en s'engageant à consacrer 250 milliards de dollars au calcul Azure dans le cadre de la restructuration de la semaine dernière — OpenAI couvre à la fois le risque opérationnel et amplifie l'intensité du capital. Elle a également des accords secondaires en place avec Google Cloud et Oracle, ce dernier valant selon les rapports 300 milliards de dollars sur cinq ans. Au total, les engagements de calcul à terme d'OpenAI dépassent 600 milliards de dollars — les plus importants de l'histoire pour une seule entreprise d'IA.
La renaissance d'AWS dans la course aux armements de l'IA
Pour Amazon, l'accord est un arc de rédemption. AWS reste le plus grand fournisseur de cloud au monde en termes de part de marché, mais les analystes avaient commencé à remettre en question ses références en matière d'IA alors que Microsoft et Google annonçaient des partenariats plus éclatants avec des développeurs de modèles de premier plan.
Le contrat de 38 milliards de dollars change cette narration. Il amène OpenAI — le joyau de la couronne de la révolution de l'IA générative — dans l'orbite d'Amazon, alors même qu'Amazon continue de soutenir le constructeur de modèles rival Anthropic avec ses propres investissements de plusieurs milliards de dollars. La plateforme Bedrock d'AWS héberge déjà des modèles d'Anthropic, Meta, Cohere, Stability AI et Mistral AI. Maintenant, elle ajoute les charges de travail d'OpenAI, renforçant la stratégie d'Amazon d'être la "couche d'infrastructure neutre" pour l'IA.
À court terme, l'accord promet une utilisation plus élevée des puces spécialisées d'AWS et des instances GPU. À long terme, il positionne Amazon comme le fournisseur de services indispensable pour les charges de travail d'IA — le même rôle qu'il a joué pour les startups Internet émergentes il y a deux décennies.
La concurrence d'OpenAI : titans et challengers
Le paysage concurrentiel en 2025 est féroce. Anthropic, soutenu par Amazon et Google, entraîne ses prochains modèles de la série Claude sur les superclusters TPU v6 de Google. xAI d'Elon Musk met à l'échelle son modèle "Grok" sur les GPU H100 et B200 de Nvidia hébergés par Oracle. La startup française Mistral AI, fraîchement sortie d'une levée de fonds de 600 millions de dollars, emprunte la voie des poids ouverts, en publiant des modèles entièrement accessibles qui peuvent fonctionner sur du matériel plus petit.
OpenAI reste la référence pour les performances des modèles fermés, mais le domaine se resserre. Les modèles propriétaires de l'entreprise — GPT-4 et le prochain GPT-5 — nécessitent des budgets d'inférence massifs qui peuvent dépasser même la capacité mondiale d'Azure de Microsoft. En ajoutant AWS à son mix d'infrastructure, OpenAI assure la redondance et la croissance parallèle — mais signale également qu'aucun fournisseur unique ne peut répondre seul à ses demandes d'échelle.
Pendant ce temps, des startups comme Together AI, Lambda Labs et CoreWeave (maintenant valorisées à 20 milliards de dollars après la participation de Nvidia) offrent un calcul haute performance de boutique pour l'entraînement de modèles spécialisés. Cette prolifération suggère un écosystème dans lequel le calcul devient la marchandise et l'orchestration le différenciateur.
L'économie d'une course aux armements de calcul
Le développement de modèles d'IA est devenu la frontière la plus intensive en capital du secteur technologique. Le prix des GPU, de l'énergie et du refroidissement a transformé l'infrastructure d'IA en nouveau champ pétrolifère de l'économie numérique.
Nvidia reste le fournisseur dominant, contrôlant plus de 80 pour cent du marché des puces IA haut de gamme. Ses derniers systèmes GB200 Grace Blackwell sont conçus pour des modèles à mille milliards de paramètres et offrent jusqu'à 30 fois les performances de la génération H100 précédente. AWS prévoit de déployer ces puces à une échelle sans précédent pour les clusters d'OpenAI.
Les implications financières sont stupéfiantes. Selon Morgan Stanley, l'investissement mondial dans l'infrastructure d'IA pourrait dépasser 2 billions de dollars d'ici 2030, porté par les hyperscalers et les programmes d'IA souveraine. OpenAI seul pourrait représenter 20 pour cent de la demande totale de GPU en 2026.
Cette concentration a des effets secondaires : une consommation d'énergie en hausse, des coûts environnementaux et des points d'étranglement potentiels de la chaîne d'approvisionnement. Les pays sont déjà en concurrence pour la fabrication de puces, l'accès au réseau et les droits d'eau pour le refroidissement des centres de données — faisant écho à la géopolitique du pétrole au 20e siècle.
L'IA décentralisée : le contre-mouvement gagne du terrain
Alors que la concentration du cloud s'accélère, un nouvel écosystème s'élève en opposition — un qui mélange l'infrastructure blockchain, le calcul distribué et l'IA de périphérie. L'objectif : rendre l'intelligence souveraine, c'est-à-dire contrôlable par les individus et les communautés plutôt que monopolisée par les clouds.
Des projets comme Gaia AI, Bittensor, Fetch.ai et io.net construisent des réseaux peer-to-peer où les ressources de calcul peuvent être mises en commun, échangées et allouées de manière transparente via des jetons. Render Network décentralise le rendu GPU ; Gensyn et Akash Network fournissent des marchés ouverts pour le calcul d'entraînement ; Cerebras et Tenstorrent expérimentent des accélérateurs d'IA modulaires et déployables localement.
L'attrait réside dans la résilience et l'autonomie. Si l'infrastructure d'intelligence reflète l'oligopole cloud d'aujourd'hui, les sociétés risquent de céder à la fois les données et la prise de décision à quelques plateformes d'entreprise. L'IA décentralisée plaide pour le contraire : un monde où les modèles vivent à travers les appareils, gouvernés par des protocoles ouverts plutôt que par des API propriétaires.
Même les grandes institutions y prêtent attention. L'initiative "IA souveraine" de l'UE et le programme "Edge AI" du ministère japonais de l'Économie mettent tous deux l'accent sur le contrôle local de l'entraînement des modèles et de l'inférence. L'objectif n'est pas de démanteler les clouds


