Wichtige Punkte
- OpenAI hat einen 38-Milliarden-Dollar-Vertrag mit Amazon Web Services (AWS) abgeschlossen, um Cloud-Infrastruktur zu sichern.
- OpenAI erhält Zugang zu Hunderttausenden von Nvidia-GPUs für das Training und die Skalierung seiner KI-Modelle der nächsten Generation.
- Der Deal stärkt die Position von AWS im KI-Wettlauf und unterstreicht die zunehmende Zentralisierung der Rechenleistung bei den großen Tech-Clouds.
Was ist der OpenAI-AWS-Deal: Eine siebenjährige, 38-Milliarden-Dollar-Wette auf Rechenleistung
OpenAI hat einen siebenjährigen Cloud-Services-Vertrag im Wert von 38 Milliarden Dollar mit Amazon Web Services (AWS) unterzeichnet und sichert sich damit Zugang zu Hunderttausenden von Nvidia-GPUs für das Training und die Bereitstellung seiner Modelle der nächsten Generation. Der am Montag angekündigte Deal markiert OpenAIs bedeutendsten strategischen Schritt seit der Unternehmensumstrukturierung in der letzten Woche, die dem ChatGPT-Entwickler größere finanzielle Unabhängigkeit verschaffte und Microsofts Kontrolle über seine Geschäftstätigkeit lockerte.
Im Rahmen der Vereinbarung wird AWS damit beginnen, Nvidia GB200- und GB300-Beschleuniger in dedizierten Rechenzentrumscluster bereitzustellen, wobei die volle Kapazität voraussichtlich bis Ende 2026 online sein wird und Raum für Skalierung bis 2027 besteht. Für Amazon signalisiert der Deal ein entscheidendes Comeback im KI-Wettlauf. Für OpenAI stellt er den größten Rechenleistungsvertrag dar, der je von einem privaten KI-Unternehmen unterzeichnet wurde.
Die Partnerschaft katapultiert AWS sofort zurück ins Zentrum der KI-Infrastruktur und zerstreut Befürchtungen, dass es hinter Microsoft Azure und Google Cloud zurückgefallen sei. Die Amazon-Aktien stiegen am Dienstag um 5 Prozent und fügten dem Marktwert des Unternehmens fast 140 Milliarden Dollar hinzu – die größte zweitägige Rally seit Jahren.
Die neue Währung der Intelligenz: Rechenleistung
Wenn Daten das Öl des digitalen Zeitalters waren, dann ist Rechenleistung dessen Elektrizität. "Die Skalierung von Frontier-KI erfordert massive, zuverlässige Rechenleistung", sagte Sam Altman, CEO von OpenAI, in einer Erklärung. Dieser Satz fasst die Logik hinter dem Deal zusammen: Im Rennen zur künstlichen allgemeinen Intelligenz (AGI) definiert der Zugang zu Rechenkapazität – nicht Algorithmen – jetzt die Führungsposition.
OpenAI plant, in den kommenden zehn Jahren mehr als 30 Gigawatt Rechenleistung einzusetzen, bei Kapitalausgaben von etwa 1,4 Billionen Dollar. Altman hat ein kühnes Ziel formuliert: jede Woche ein Gigawatt Rechenleistung hinzuzufügen, zu aktuellen Kosten von über 40 Milliarden Dollar pro GW. Um das in Perspektive zu setzen: Jedes Gigawatt könnte etwa 830.000 US-Haushalte mit Strom versorgen.
Diese Größenordnung verwandelt Rechenleistung in einen eigenen Kapitalmarkt. Risikokapitalgeber, staatliche Fonds und Big-Tech-Giganten handeln mit Infrastrukturkapazitäten wie mit Energiefutures. Die Intelligenzwirtschaft der Welt – vom Training großer Sprachmodelle bis zur Bedienung von Milliarden täglicher KI-Anfragen – beruht nun auf der Fähigkeit, GPU-dichte Rechenzentren im planetarischen Maßstab zu sichern, zu finanzieren und zu betreiben.
Warum es wichtig ist: Die Zentralisierungsspirale
Der AWS-OpenAI-Deal kristallisiert eine unbequeme Realität heraus: Die KI-Branche konsolidiert sich um eine Handvoll hyperskalierter Clouds, Chip-Anbieter und Modell-Provider. Microsoft, Amazon und Google sitzen nun im Zentrum eines geschlossenen Kreislaufs, in dem Geld, Rechenleistung und Intelligenz unter denselben wenigen Netzwerken zirkulieren.
Jede neue Modelliteration erfordert exponentiell mehr Rechenleistung. Jeder Sprung in der Rechenleistung erfordert Kapitalausgaben in Milliardenhöhe. Das Ergebnis ist ein Feedback-Loop, der etablierte Unternehmen bevorzugt und die Eintrittsbarrieren für alle anderen erhöht.
Eric Yang, CEO von Gradient – einem dezentralisierten KI-Forschungsnetzwerk, das von Pantera Capital und Multicoin Capital unterstützt wird – beschrieb das Phänomen prägnant:
"Der Umfang dieser neuen Cloud-Deals zeigt, wie schnell KI zu einem eigenständigen Kapitalmarkt geworden ist. Die größten Akteure der Branche handeln jetzt effektiv mit Macht, um Intelligenz zu kontrollieren, so wie andere mit Energie handeln – und konzentrieren enorme finanzielle und operative Macht bei wenigen Anbietern. Die nächste Herausforderung besteht darin, sicherzustellen, dass die Intelligenz selbst nicht dort gefangen bleibt."
Yangs Worte unterstreichen eine wachsende philosophische Kluft: Sollte die Zukunft der KI zentralisierten Clouds gehören oder verteilten, souveränen Systemen, die über unabhängige Netzwerke und Geräte laufen?
Von offen zu undurchsichtig: OpenAIs struktureller Wandel
Der Zeitpunkt des AWS-Deals folgt auf OpenAIs umfassende Umstrukturierung, die das Unternehmen von seiner ursprünglichen gemeinnützigen Satzung distanziert. Die Reorganisation beseitigt Microsofts "Vorkaufsrecht" für die Bereitstellung von Cloud-Diensten und positioniert OpenAI, um externes Kapital freier aufzunehmen – einschließlich eines potenziellen 1-Billion-Dollar-IPOs, laut Reuters.
Seit seiner Gründung im Jahr 2015 spiegelt OpenAIs Entwicklung die breitere Evolution der KI selbst wider: vom offenen Forschungskollektiv zur gewinnorientierten Plattform. Die Einführung von ChatGPT Ende 2022 machte KI zu einem allgegenwärtigen Konzept und trieb die Umsatzrate des Unternehmens bis Ende 2025 auf 20 Milliarden Dollar. Dennoch bleibt es verlustbringend, hauptsächlich aufgrund der immensen Kosten für Modelltraining und Inferenz.
Durch die Diversifizierung über Microsofts Azure-Cloud hinaus – während es im Rahmen der Umstrukturierung der letzten Woche immer noch 250 Milliarden Dollar für Azure-Rechenleistung zusagt – sichert OpenAI sowohl das operative Risiko ab als auch verstärkt die Kapitalintensität. Es bestehen auch sekundäre Vereinbarungen mit Google Cloud und Oracle, wobei letztere angeblich über fünf Jahre 300 Milliarden Dollar wert ist. Insgesamt übersteigen OpenAIs zukunftsgerichtete Rechenleistungsverpflichtungen 600 Milliarden Dollar – die größten in der Geschichte für ein einzelnes KI-Unternehmen.
AWS' Wiederbelebung im KI-Wettrüsten
Für Amazon ist die Vereinbarung ein Redemption-Arc. AWS bleibt der weltweit größte Cloud-Anbieter nach Marktanteil, aber Analysten hatten begonnen, seine KI-Referenzen in Frage zu stellen, als Microsoft und Google aufsehenerregendere Partnerschaften mit führenden Modellentwicklern ankündigten.
Der 38-Milliarden-Dollar-Vertrag ändert diese Erzählung. Er bringt OpenAI – das Kronjuwel der generativen KI-Revolution – in Amazons Umlaufbahn, während Amazon weiterhin den Konkurrenten Anthropic mit eigenen milliardenschweren Investitionen unterstützt. AWS' Bedrock-Plattform hostet bereits Modelle von Anthropic, Meta, Cohere, Stability AI und Mistral AI. Jetzt kommen OpenAIs Workloads hinzu, was Amazons Strategie verstärkt, die "neutrale Infrastrukturschicht" für KI zu sein.
Kurzfristig verspricht der Deal eine höhere Auslastung von AWS' spezialisierten Chips und GPU-Instanzen. Langfristig positioniert er Amazon als unverzichtbaren Versorgungsanbieter für KI-Workloads – dieselbe Rolle, die es vor zwei Jahrzehnten für frühe Internet-Startups spielte.
OpenAIs Wettbewerb: Titanen und Herausforderer
Die Wettbewerbslandschaft im Jahr 2025 ist hart umkämpft. Anthropic, unterstützt von Amazon und Google, trainiert seine nächsten Claude-Serienmodelle auf Googles TPU v6-Superclustern. Elon Musks xAI skaliert sein "Grok"-Modell auf Nvidias H100- und B200-GPUs, die von Oracle gehostet werden. Das französische Startup Mistral AI, frisch nach einer 600-Millionen-Dollar-Runde, verfolgt den Open-Weights-Pfad und veröffentlicht vollständig zugängliche Modelle, die auf kleinerer Hardware laufen können.
OpenAI bleibt der Maßstab für Closed-Model-Performance, aber das Feld wird enger. Die proprietären Modelle des Unternehmens – GPT-4 und das kommende GPT-5 – erfordern massive Inferenzbudgets, die sogar Microsofts globale Azure-Kapazität übersteigen könnten. Durch die Hinzufügung von AWS zu seinem Infrastrukturmix gewährleistet OpenAI Redundanz und paralleles Wachstum – signalisiert aber auch, dass kein einzelner Anbieter seine Skalierungsanforderungen allein erfüllen kann.
Inzwischen bieten Startups wie Together AI, Lambda Labs und CoreWeave (jetzt nach Nvidias Beteiligung mit 20 Milliarden Dollar bewertet) Boutique-Hochleistungsrechner für spezialisiertes Modelltraining an. Diese Verbreitung deutet auf ein Ökosystem hin, in dem Rechenleistung zur Ware und Orchestrierung zum Differenzierungsmerkmal wird.
Die Ökonomie eines Rechenleistungs-Wettrüstens
Die KI-Modellentwicklung ist zur kapitalintensivsten Grenze des Technologiesektors geworden. Der Preis für GPUs, Strom und Kühlung hat die KI-Infrastruktur zum neuen Ölfeld der digitalen Wirtschaft gemacht.
Nvidia bleibt der dominante Lieferant und kontrolliert über 80 Prozent des High-End-KI-Chip-Marktes. Seine neuesten GB200 Grace Blackwell-Systeme sind für Billionen-Parameter-Modelle konzipiert und liefern bis zu 30-mal die Leistung der vorherigen H100-Generation. AWS plant, diese Chips in beispiellosem Umfang für OpenAIs Cluster einzusetzen.
Die finanziellen Auswirkungen sind gewaltig. Laut Morgan Stanley könnten die globalen KI-Infrastrukturinvestitionen bis 2030 2 Billionen Dollar übersteigen, angetrieben von Hyperskalierern und souveränen KI-Programmen. OpenAI allein könnte 2026 für 20 Prozent der gesamten GPU-Nachfrage verantwortlich sein.
Diese Konzentration hat Nebenwirkungen: steigenden Energieverbrauch, Umweltkosten und potenzielle Engpässe in der Lieferkette. Länder konkurrieren bereits um Chip-Fertigung, Netzzugang und Wasserrechte für die Kühlung von Rechenzentren – ein Echo der Geopolitik des Öls im 20. Jahrhundert.
Dezentralisierte KI: Die Gegenbewegung gewinnt an Boden
Während die Cloud-Konzentration beschleunigt, entsteht ein neues Ökosystem in Opposition – eines, das Blockchain-Infrastruktur, verteilte Rechenleistung und Edge-KI kombiniert. Das Ziel: Intelligenz souverän zu machen, was bedeutet, dass sie von Einzelpersonen und Gemeinschaften kontrollierbar ist, anstatt von Clouds monopolisiert zu werden.
Projekte wie Gaia AI, Bittensor, Fetch.ai und io.net bauen Peer-to-Peer-Netzwerke auf, in denen Rechenressourcen gebündelt, gehandelt und transparent durch Tokens zugewiesen werden können. Render Network dezentralisiert GPU-Rendering; Gensyn und Akash Network bieten offene Märkte für Trainingsrechenleistung; Cerebras und Tenstor

