Schlagwort: Rechenleistung

  • Trotz Milliarden-Umsatz: Anthropic warnt vor zu schnellen Investitionen in Rechenleistung

    Anthropic-CEO Dario Amodei rechnet damit, dass KI bald auf Nobelpreis-Niveau arbeitet. Trotzdem warnt er vor Milliarden-Investitionen in Rechenleistung: Ein Jahr daneben, und man sei bankrott.

    Der Artikel Trotz Milliarden-Umsatz: Anthropic warnt vor zu schnellen Investitionen in Rechenleistung erschien zuerst auf The Decoder.

  • OpenAI Umsatz explodiert auf 20 Milliarden trotz massivem Hardware-Engpass

    Sam Altman zeigt Umsatzzahlen

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI erreichte 2025 eine annualisierte Umsatzrate von 20 Milliarden US-Dollar, was einem zehnfachen Anstieg gegenüber dem Vorjahr entspricht. Das Umsatzwachstum korreliert fast 1:1 mit dem Ausbau der Rechenkapazität, weshalb fehlende Hardware und Energie aktuell die größten Wachstumsbremsen sind. Um die Abhängigkeit von Nvidia zu verringern und die Skalierung zu sichern, plant OpenAI für 2026 die Einführung eigener „Titan“-KI-Chips.

    OpenAI Umsatzzahlen

    Indian Express: OpenAI’s compute capacity grew 9.5x as revenue rose ten-fold

    CNBC: OpenAI to focus on ‚practical adoption‘ in 2026

    TipRanks: OpenAI Reports $20 Billion Revenue Run Rate

    OpenAI meldet für das abgelaufene Jahr 2025 eine Umsatzrate von 20 Milliarden US-Dollar und zementiert damit seine finanzielle Dominanz im KI-Sektor. Doch dieser Rekordwert offenbart ein strukturelles Problem der Branche: Nicht die Kundennachfrage, sondern der akute Mangel an verfügbarer Rechenleistung verhindert eine noch schnellere Skalierung des Geschäfts. Die Korrelation von Silizium und Umsatz Die aktuellen Zahlen verdeutlichen eine beinahe lineare Abhängigkeit zwischen Hardware-Einsatz und Ertrag. Während der Umsatz im Vergleich zum Vorjahr um das Zehnfache stieg, wuchs die genutzte Rechenkapazität (Compute Capacity) im gleichen Zeitraum um den Faktor 9,5 an. Sarah Friar, Chief Financial Officer von OpenAI, bestätigte diesen direkten Zusammenhang in einer aktuellen Stellungnahme. Das Unternehmen verwandelt Rechenleistung fast ohne Reibungsverluste in monetären Wert. Diese Effizienz bringt jedoch logistische Herausforderungen mit sich, die Software allein nicht lösen kann. Um den Umsatz weiter im gleichen Tempo zu steigern, müsste OpenAI Zugriff auf Hardware-Ressourcen erhalten, die der Markt derzeit kaum bereitstellen kann. Die Infrastruktur hinkt den Ambitionen des KI-Pioniers hinterher. + Quelle: OpenAI Infrastruktur als Flaschenhals Der Engpass liegt primär in der physischen Welt der Energieversorgung und Chipproduktion. Berichte über einen Bedarf von gigantischen 1,9 Gigawatt an Leistung für die nächste Ausbaustufe zeigen die Dimensionen des Energiehungers. OpenAI konkurriert dabei nicht mehr nur mit anderen Tech-Konzernen, sondern zunehmend mit der Versorgungssicherheit öffentlicher Stromnetze. Ohne eine massive Erweiterung der Rechenzentren droht das Wachstum im Jahr 2026 zu stagnieren. Investoren und Analysten betrachten die Verfügbarkeit von spezialisierten KI-Beschleunigern und die dazugehörige Energieversorgung mittlerweile als die härteste Währung im Silicon Valley. Kapital ist ausreichend vorhanden, doch Strom und Chips sind rationiert. Anzeige Strategiewechsel und eigene Hardware Um diese Abhängigkeit zu durchbrechen, plant OpenAI für das Jahr 2026 eine zweigleisige Strategie. Zum einen verschiebt sich der Fokus von reiner Modellgröße hin zur „Practical Adoption“. Es geht nun darum, die Lücke zwischen dem theoretischen Potenzial der KI und der tatsächlichen Nutzung in Unternehmen zu schließen, um die vorhandene Rechenleistung effizienter zu monetarisieren. Zum anderen forciert das Unternehmen die technologische Unabhängigkeit vom Marktführer Nvidia. Mit der für 2026 angekündigten Einführung des eigenen „Titan“-Chips will OpenAI die Kostenstruktur radikal optimieren und die Lieferketten selbst kontrollieren. Dieser Schritt gilt als direkte Kampfansage an die bisherige Preispolitik der Chiphersteller und soll die Margen langfristig sichern.

  • Eine Million Chips für Claude

    Eine Grafik von Anthrophic

    Nano Banana

    Kurzfassung

    Quellen

    Anthropic sichert sich bis 2026 Zugriff auf bis zu eine Million Google TPU KI-Chips. Der Multi-Milliarden-Deal soll die Entwicklung der KI „Claude“ vorantreiben und die Kundennachfrage decken. Trotz der Google-Partnerschaft bleibt Amazon (AWS) der Haupt-Cloud-Anbieter für Anthropic. Der Deal zeigt das massive Wettrüsten um Rechenleistung zwischen den großen KI-Akteuren.

    Anthropic – Offizielle Mitteilung zum Google Cloud TPU-Deal Google – Projektvorstellung TPUs und Cloud-Partnerschaft mit Anthropic CNBC – „Anthropic signs ‘multi-billion dollar’ deal to use Google’s cloud chips for AI models“ Bloomberg – „Anthropic Expands Partnership with Google for AI Chip Access“ The Decoder – „Anthropic will bis zu eine Million Google-TPUs nutzen“

    Anthropic sichert sich massive Rechenleistung für seine KI Claude. Das Unternehmen erhält bis 2026 Zugriff auf bis zu eine Million spezialisierter Google-KI-Chips. Diese Partnerschaft im Wert von mehreren Milliarden Dollar soll die Entwicklung zukünftiger KI-Modelle absichern. Der Pakt um die Rechenleistung Google stellt Anthropic seine modernsten Tensor Processing Units (TPUs) bereit. Diese Chips sind speziell für das Training großer Sprachmodelle optimiert. Anthropic will die Hardware nutzen, um die nächste Generation seines Konkurrenten zu ChatGPT, Claude, zu entwickeln. Der Zugriff auf die bis zu eine Million Einheiten erfolgt schrittweise bis zum Jahr 2026. Der Deal wird auf einen Wert von mehreren zehn Milliarden US-Dollar geschätzt. Es ist die bisher größte bekannte Einzelvereinbarung für den Zugriff auf Cloud-Chips. Anthropic erhält damit eine gewaltige Rechenkapazität, um die steigende Nachfrage von Unternehmenskunden zu bedienen und komplexe KI-Systeme zu trainieren. Ein riskantes Spiel mit den Wolken Die Vereinbarung folgt einem bekannten Muster in der KI-Branche. Cloud-Anbieter wie Google investieren Milliarden in KI-Startups. Im Gegenzug verpflichten sich diese Startups, das Geld direkt wieder für die Cloud-Dienste und die Rechenleistung des Investors auszugeben. Pikant an der Situation: Amazons AWS bleibt weiterhin der Haupt-Cloud-Partner von Anthropic. Amazon hatte zuvor ebenfalls Milliarden investiert, um Anthropic an seine eigenen KI-Chips zu binden. Anthropic balanciert seine Abhängigkeiten nun geschickt zwischen den beiden Tech-Giganten aus, um sich den Zugriff auf die knappe Hardware zu sichern. Diese Strategie ist nicht ohne Risiko. Kritiker weisen auf das spekulative Modell hin. Die KI-Firmen investieren Unsummen in die Infrastruktur, bevor die Einnahmen diese Ausgaben überhaupt rechtfertigen können. Das Wettrüsten um die KI-Dominanz Der Google-Deal zementiert Anthropics Position als einer der drei großen Spieler im Rennen um die stärkste KI. Das Unternehmen steht in direktem Wettbewerb mit OpenAI, das eng an Microsoft gebunden ist, und Google selbst. Die Branche befindet sich in einem intensiven Wettrüsten um Rechenleistung. Ohne den Zugriff auf Hunderttausende dieser Spezialchips ist die Entwicklung von Spitzenmodellen kaum noch möglich. Diese massive Investition zeigt, wie kapitalintensiv die Entwicklung von künstlicher Intelligenz geworden ist. Der Erfolg hängt nicht mehr nur von den Algorithmen ab, sondern zunehmend vom reinen Zugang zu Hardware.

  • OpenAI sichert sich Rechenleistung für eine Billion Dollar trotz Kapitalmangels

    OpenAI hat Verträge über etwa eine Billion Dollar für Rechenleistung abgeschlossen – ohne aktuell auch nur ansatzweise das Kapital zu haben, um diese zu finanzieren.

    Der Artikel OpenAI sichert sich Rechenleistung für eine Billion Dollar trotz Kapitalmangels erschien zuerst auf THE-DECODER.de.

  • Der 100-Milliarden-Dollar-Plan, der Nvidia stürzen soll

    Ein AMD David verbindet sich mit einem OpenAI Goliath

    Der 100-Milliarden-Dollar-Plan, der Nvidia stürzen soll AMD und OpenAI enthüllen eine strategische Partnerschaft, die nicht nur auf Chips, sondern auch auf einer tiefen finanziellen Verflechtung beruht. Kurzfassung | Andreas Becker, 06.10.25
    gpt-image-1 | All-AI.de Ein strategischer Paukenschlag fordert den unangefochtenen König des KI-Marktes heraus. AMD und OpenAI haben eine Partnerschaft im Wert von mehreren zehn Milliarden Dollar besiegelt. Dieser Deal sichert OpenAI nicht nur gewaltige Rechenleistung, sondern rüstet AMD zum ernsthaften Konkurrenten für den Branchenprimus Nvidia auf und könnte die Machtverhältnisse im globalen Chip-Markt neu definieren. Der Milliarden-Deal im Detail Die mehrjährige Vereinbarung sichert OpenAI den Zugriff auf insgesamt sechs Gigawatt an AMD-Rechenleistung. Der Aufbau der Infrastruktur startet in der zweiten Hälfte des Jahres 2026 mit einem ersten Cluster, basierend auf der kommenden GPU-Generation AMD Instinct MI450. Die schiere Größenordnung des Projekts wird deutlich im Energiebedarf: Sechs Gigawatt entsprechen dem Verbrauch von rund 4,5 Millionen US-Haushalten. Eine besondere Klausel macht die Partnerschaft außergewöhnlich. AMD räumt OpenAI eine Option zum Erwerb von bis zu 160 Millionen AMD-Aktien ein. Das entspricht fast zehn Prozent des Unternehmens. Diese Option wird schrittweise an das Erreichen gemeinsamer Meilensteine gekoppelt. AMD rechnet allein aus diesem Geschäft mit einem Jahresumsatz von zehn Milliarden Dollar. OpenAIs Strategie der Unabhängigkeit Für OpenAI ist der Pakt mit AMD ein entscheidender Schritt zur Diversifizierung seiner Hardware-Basis. Das KI-Unternehmen verfolgt eine konsequente Multi-Vendor-Strategie, um die Abhängigkeit von einem einzigen Lieferanten zu reduzieren. Erst kürzlich wurde eine ähnliche Kooperation mit Nvidia über die Lieferung von zehn Gigawatt Rechenleistung bekannt. OpenAI-Chef Sam Altman betonte, dass der AMD-Deal die Zusammenarbeit mit Nvidia ergänze und nicht ersetze. Der immense Bedarf an Rechenleistung für das Training zukünftiger KI-Modelle zwingt das Unternehmen, alle verfügbaren Ressourcen zu nutzen. Diese parallelen Partnerschaften erhöhen die Versorgungssicherheit und stärken die Verhandlungsposition gegenüber den Chip-Herstellern. AMDs Angriff auf die Nvidia-Dominanz Der Deal mit OpenAI ist für AMD ein transformativer Erfolg im Kampf gegen die erdrückende Marktmacht von Nvidia. Bisher kontrolliert Nvidia rund 94 Prozent des Marktes für KI-Beschleuniger. Technische Nachteile bei Software und Vernetzung warfen AMD in der Vergangenheit immer wieder zurück. Mit OpenAI als prominentem Referenzkunden positioniert sich der Konzern nun als ernstzunehmende Alternative. AMD setzt dabei auf eine offenere Strategie als der Konkurrent. Die Software-Plattform ROCm ist Open Source und die Serversysteme nutzen standardisierte Netzwerktechnologie statt proprietärer Lösungen wie bei Nvidia. Dieser Ansatz könnte für Kunden attraktiv werden, die eine zu starke Bindung an einen Hersteller vermeiden wollen. Die Börse reagierte bereits euphorisch auf die Ankündigung. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG
    AMD und OpenAI haben eine strategische Partnerschaft über die Lieferung von sechs Gigawatt Rechenleistung geschlossen.
    Der milliardenschwere Deal beinhaltet eine Option für OpenAI, bis zu zehn Prozent der AMD-Aktien zu erwerben.
    OpenAI verfolgt damit eine Multi-Vendor-Strategie, um die Abhängigkeit von Marktführer Nvidia zu verringern.
    Für AMD ist die Kooperation ein entscheidender Schritt, um sich als ernsthafte Alternative im KI-Chip-Markt zu etablieren.
    QUELLEN
    OpenAI
    The Verge
    Morningstar
    Channel NewsAsia
    Reuters

  • Meta kauft Googles Rechenzeit – KI-Krieg macht seltsame Partner

    Meta-Lamas stürmen Google

    Meta kauft Googles Rechenzeit – KI-Krieg macht seltsame Partner Im Rennen um KI zählt jede Sekunde. Doch was steckt wirklich hinter dem milliardenschweren Mega-Deal zwischen den Rivalen? Kurzfassung | Andreas Becker, 24.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Meta will beim Ausbau seiner KI-Angebote keine Zeit verlieren. Deshalb mietet der Konzern in den kommenden sechs Jahren für über zehn Milliarden Dollar Cloud-Kapazitäten bei Google. Obwohl beide Unternehmen direkt miteinander konkurrieren, gewinnt am Ende die Physik: Wer schneller rechnen will, braucht Rechenzentren – und davon hat Google viele. NEWS Rivalität trifft Realität Meta betreibt weltweit über 20 eigene Rechenzentren und baut weitere, darunter Anlagen mit mehreren Gigawatt Strombedarf. Doch diese Standorte entstehen nicht über Nacht. Bis die neue Hardware ans Netz geht, mietet Meta kurzerhand Infrastruktur beim Rivalen. Laut übereinstimmenden Medienberichten umfasst der Deal Serverleistung, Speicherplatz und Netzwerkanbindung in großem Stil – in Googles eigener Cloud. Für Google ist der Vertrag ein seltener, aber nicht beispielloser Schritt. Schon im Juni sicherte sich OpenAI zusätzliche Rechenleistung bei Google, um unabhängiger von Microsoft Azure zu werden. Dass sich nun auch Meta für Googles Infrastruktur entscheidet, zeigt: In der Praxis zählt Skalierung oft mehr als Wettbewerb. Auf einem bestimmten Level spielt es eben keine Rolle mehr, wem die GPU-Farmen gehören – Hauptsache, sie laufen. Zeit statt Stolz Meta braucht die zusätzlichen Kapazitäten dringend. Die Llama-Modelle sind zwar leistungsfähig, stehen aber beim sogenannten Reasoning aktuell unter Druck. Um hier aufzuholen, muss Meta schneller iterieren – was nur mit mehr Rechenzeit geht. Eigene Supercluster mit speziellen Nvidia-Chips befinden sich zwar im Aufbau, können aber kurzfristig nicht liefern, was Produktteams und Forschungsabteilungen benötigen. Bis zu diesem Punkt hilft Google aus. Der Cloud-Zukauf soll dafür sorgen, dass neue KI-Funktionen zügig in Facebook, Instagram, WhatsApp oder Threads integriert werden. Meta folgt damit einem klaren Ziel: Jeder Entwickler soll möglichst viel Rechenleistung zur Verfügung haben. Im internen Sprachgebrauch nennt sich das „Compute Überfluss“ – ein Zustand, den bisher nur wenige erreichen. Für Google ein Drahtseilakt Für Google bringt der Vertrag Milliardenumsätze und Prestige. Gleichzeitig wird es kompliziert. Denn das Unternehmen muss jetzt eigene Projekte wie Gemini priorisieren und darf dennoch den neuen Großkunden nicht ausbremsen. Die Kapazitätsplanung wird zur High-Stakes-Optimierung – ähnlich wie ein Scheduler auf Systemebene, nur in globaler Dimension. Zudem verändert sich die Landschaft: Während Chatbots die klassische Websuche herausfordern, profitieren Cloud-Anbieter vom KI-Boom. Der Deal mit Meta zeigt, dass Google bereit ist, in beide Richtungen zu denken – und zur Not auch mal Rechenleistung an die Konkurrenz zu vermieten. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Meta sichert sich für über zehn Milliarden Dollar Rechenleistung aus Googles Cloud, um seine KI-Projekte zu beschleunigen.
    Der Deal zeigt, dass Skalierung wichtiger ist als Wettbewerb – sogar zwischen direkten Konkurrenten.
    Meta will mit der zusätzlichen Power seine Llama-Modelle und KI-Features schneller vorantreiben.
    Google profitiert finanziell, muss aber eigene Prioritäten klug managen, um nicht in Konflikte zu geraten.
    QUELLEN
    Reuters
    The Information
    Bloomberg
    Investopedia

  • Microsoft stellt schnelleres Phi-Denk-Modell mit bis zu 10x höherem Token-Durchsatz vor

    Ankündigungsbanner für Phi-4-mini-flash-reasoning vor abstraktem Farbverlauf mit P-Logo unten rechts

    Microsoft hat Phi-4-mini-flash-reasoning vorgestellt, ein neues KI-Modell für Szenarien mit begrenzter Rechenleistung, Speicher und Latenz. Das Modell soll Fähigkeiten zur Schlussfolgerung auf Edge-Geräte, mobile Anwendungen und andere ressourcenbeschränkte Umgebungen bringen.

    Der Artikel Microsoft stellt schnelleres Phi-Denk-Modell mit bis zu 10x höherem Token-Durchsatz vor erschien zuerst auf THE-DECODER.de.

  • OpenAI und Oracle bauen Stargate-Projekt in den USA massiv aus

    Digitale Karte der USA

    OpenAI mietet für sein KI-Projekt „Stargate“ zusätzliche Rechenleistung im Umfang von 4,5 Gigawatt in US-Rechenzentren von Oracle, berichtet Bloomberg.

    Der Artikel OpenAI und Oracle bauen Stargate-Projekt in den USA massiv aus erschien zuerst auf THE-DECODER.de.

  • OpenAIs o3-pro ist zu spezialisiert für Smalltalk

    OpenAI hat o3-pro für Pro-Nutzer verfügbar gemacht. Das neue Modell soll durch seine höhere Rechenleistung bessere und zuverlässigere Antworten liefern. Dafür benötigt es allerdings deutlich mehr Zeit, selbst wenn die Antwort eigentlich einfach wäre.

    Der Artikel OpenAIs o3-pro ist zu spezialisiert für Smalltalk erschien zuerst auf THE-DECODER.de.