OpenAI bricht mit Nvidia-Tradition: 10-Milliarden-Deal mit Cerebras

Eine Grafik mit OpenAI und Cerebras

OpenAI

Kurzfassung

Quellen

OpenAI hat einen langfristigen Vertrag über rund zehn Milliarden US-Dollar mit dem Chip-Hersteller Cerebras geschlossen, um Rechenkapazitäten von bis zu 750 Megawatt zu mieten. Statt auf klassische Nvidia-GPUs setzt OpenAI hierbei auf die spezielle „Wafer-Scale Engine“-Technologie von Cerebras, die besonders effizient für die KI-Inferenz ist. Der Deal dient der strategischen Diversifizierung der Hardware-Lieferkette und soll Engpässe bei der Ausführung von KI-Modellen ab 2027 verringern.

The Decoder: OpenAI kauft Rechenpower für über zehn Milliarden Dollar bei Cerebras

TechCrunch: OpenAI signs deal, worth $10B, for compute from Cerebras

WSJ: OpenAI Forges Multibillion-Dollar Computing Partnership with Cerebras

Reuters: OpenAI to buy compute capacity from Cerebras in latest AI deal

Hardwareluxx: 750 MW und 10 Milliarden US-Dollar: OpenAI und Cerebras verkünden Partnerschaft

OpenAI diversifiziert seine Infrastruktur massiv und schließt einen Deal über rund zehn Milliarden US-Dollar mit dem Chip-Spezialisten Cerebras ab. Diese Partnerschaft sichert gigantische Kapazitäten abseits von Nvidia und signalisiert einen strategischen Wandel hin zur Inferenz-Optimierung. Der Kampf um Rechenkapazitäten erreicht eine neue Dimension. OpenAI verpflichtet sich, über die kommenden Jahre Rechenleistung im Wert von über zehn Milliarden US-Dollar von Cerebras Systems zu beziehen. Die Vereinbarung sieht vor, dass das Startup eine Infrastruktur bereitstellt, die bis zu 750 Megawatt Strom verbraucht. Zum Vergleich: Das entspricht der Leistung eines mittleren Kohlekraftwerks und verdeutlicht den enormen Energiehunger moderner KI-Modelle. Der Vertrag läuft Berichten zufolge über drei Jahre und startet, sobald die entsprechenden Rechenzentren vollständig operativ sind, voraussichtlich ab 2027. Wafer-Scale-Technologie als Alternative Technisch setzt OpenAI damit auf einen fundamental anderen Ansatz als bei den bisher dominierenden GPUs von Nvidia. Cerebras fertigt sogenannte Wafer-Scale Engines (WSE). Während herkömmliche Chiphersteller hunderte kleiner Prozessoren aus einem Silizium-Wafer schneiden, belässt Cerebras den Wafer als einen einzigen, riesigen Chip intakt. Dieser Ansatz eliminiert die Kommunikationslatenz zwischen einzelnen Chips fast vollständig, da Daten nicht über langsame externe Verbindungen gesendet werden müssen. Das Ergebnis ist eine extrem hohe Speicherbandbreite und Rechengeschwindigkeit. Diese Architektur eignet sich besonders gut für große Modelle, die enorme Datenmengen parallel verarbeiten müssen. Für OpenAI bedeutet dies potenziell schnellere Antwortzeiten bei ChatGPT und komplexen Agenten-Systemen. Anzeige Strategischer Schwenk zur Inferenz Die Partnerschaft markiert eine klare Verschiebung in der Ressourcenplanung von Sam Altman. Bisher lag der Fokus der Industrie primär auf dem Training neuer Modelle, einer Disziplin, in der Nvidias H100- und Blackwell-Chips als unangefochtener Standard gelten. Der Deal mit Cerebras zielt jedoch spezifisch auf die Inferenz ab – also die Anwendung der trainierten KI im täglichen Betrieb. Da OpenAI hunderte Millionen Nutzer bedient, explodieren die Kosten für den laufenden Betrieb. Cerebras verspricht hier eine effizientere Skalierung. Gleichzeitig sendet der Schritt ein deutliches Signal an den Markt: OpenAI ist nicht länger bereit, sich exklusiv auf einen Hardware-Lieferanten zu verlassen. Die Diversifizierung stärkt die Verhandlungsposition gegenüber Nvidia und sichert den Zugriff auf Compute-Ressourcen in einem Markt, in dem Angebotsknappheit zum Alltag gehört.