Schlagwort: USDollar

  • Lange Songs auf Knopfdruck mit Googles neuem KI-Modell

    Oberfläche von Google Labs Musik

    Nano Banana

    Kurzfassung

    Quellen

    Die KI-Plattform ProducerAI ist nun Teil von Google Labs und nutzt das Audio-Modell Lyria 3.
    Damit entfällt das bisherige 30-Sekunden-Limit, sodass Anwender vollständige Musikstücke über Text-Prompts generieren können.
    Spezifische Anpassungen wie Equalizer-Einstellungen werden direkt vom System verarbeitet und hörbar umgesetzt.
    Die Nutzung ist in einem vierstufigen SaaS-Modell organisiert, das von einer Gratisversion bis zum Profi-Tarif für 64 US-Dollar reicht.

    Google Blog: ProducerAI: Your music creation partner, now in Google Labs

    producer ai Plattform

    The Verge: This Chainsmokers-approved AI music producer is joining Google

    Die Musikplattform ProducerAI ist ab sofort Teil von Google Labs und nutzt das hauseigene KI-Modell Lyria 3. Anwender generieren damit vollständige Musikstücke direkt über Texteingaben. Die bisherige Limitierung von 30 Sekunden fällt weg. Anzeige Architektur und vollständige Song-Generierung Die Übernahme von ProducerAI in das experimentelle Google Labs bringt das Musikmodell Lyria 3 in eine neue Anwendungsumgebung. Der technische Kernvorteil dieser Integration liegt in der Aufhebung bisheriger Längenbeschränkungen. Während Lyria 3 bisher maximal 30 Sekunden in einem Durchgang berechnete, generiert das System nun problemlos längere Songs am Stück. Um Missbrauch vorzubeugen, bettet Google ein dauerhaftes SynthID-Wasserzeichen in die Audiodateien ein, das die maschinelle Herkunft nachweist. Ein Praxistest verdeutlicht die hohe Verarbeitungsgeschwindigkeit der Plattform. Ein Text-Prompt für einen „Celtic House Vibe“ inklusive der exakten Anweisung, den Bass per Equalizer um vier Dezibel anzuheben, wird in lediglich rund 30 Sekunden in ein fertiges Audiofile übersetzt. Die Benutzeroberfläche verarbeitet solche Mixing-Befehle somit direkt ohne den Umweg über externe Audiosoftware. Der folgende Versuch war mein erster überhaupt. + Quelle: producer ai Your browser does not support the audio element. Gestaffeltes Preismodell für Audioproduzenten Google strukturiert den Zugang zu ProducerAI über ein vierstufiges SaaS-Modell (Software as a Service), bei dem Nutzer die Anwendung und die benötigte Rechenleistung direkt über das Internet abonnieren, anstatt ein Programm lokal zu installieren. Die kostenlose Variante gewährt Zugriff auf tägliche Basis-Credits und erlaubt zwei simultane Generierungen. Wer die Plattform häufiger ansteuert, wählt den Starter-Plan für acht US-Dollar pro Monat. Dieser schaltet 3.000 monatliche Credits frei, was für die Erstellung von knapp 600 Songs ausreicht, und erhöht die parallelen Rechenprozesse auf acht. + Quelle: producer ai Für professionellere Produktionsumgebungen stehen zwei weitere Tarife bereit. Die Plus-Option kostet 24 US-Dollar und liefert 10.000 Credits für etwa 2.000 generierte Tracks. Am oberen Ende positioniert sich das Member-Abonnement für 64 US-Dollar monatlich. Abonnenten erhalten hier 30.000 Credits, 16 parallele Generierungen und Zugang zu exklusiven Discord-Kanälen sowie Vorabversionen. Die Plattform staffelt die Leistungskontingente somit streng nach dem monatlichen Produktionsvolumen der Anwender. Der Zugriff auf den Dienst erfolgt ab sofort über die Webseite producer.ai. Anzeige

  • OpenAI wird in diesem Jahrzehnt nicht mehr profitabel

    Sam Altman in einem Klub

    Nano Banana

    Kurzfassung

    Quellen

    Interne Dokumente zeigen, dass OpenAI seinen prognostizierten Kapitalbedarf bis 2030 um 111 Milliarden US-Dollar nach oben korrigiert hat.
    Die kalkulierten Ausgaben von fast 600 Milliarden US-Dollar fließen primär in neue Compute-Infrastruktur und spezialisierte KI-Beschleuniger.
    Durch den enormen Hardware-Bedarf für das Training fähigerer Modelle verschiebt sich die angestrebte Profitabilität des Unternehmens weiter in die Zukunft.

    The Information: OpenAI Boost Revenue Forecasts, Predicts $111 Billion More Cash Burn Through 2030

    Der Kapitalbedarf für das Training großer KI-Modelle steigt weiter rasant an. Interne Finanzdokumente von OpenAI weisen bis 2030 einen kumulierten Cashburn von 665 Milliarden US-Dollar aus, wie The Information berichtet. Das sind 111 Milliarden mehr als bisher kalkuliert. Compute-Kosten als primärer Treiber Der Hauptgrund für die immense finanzielle Belastung liegt in der benötigten Rechenleistung für kommende KI-Generationen. Die Ausgaben für die Compute-Infrastruktur belaufen sich in der aktualisierten Kalkulation auf fast 600 Milliarden US-Dollar. Das umfasst den Erwerb spezialisierter KI-Beschleuniger, den Aufbau gigantischer Server-Cluster und die immense Stromversorgung. Moderne KI-Architekturen erfordern für Fortschritte beim Reasoning ein stetiges Wachstum an Parametern und synthetischen Trainingsdaten. Die Modelle werden dadurch auf absehbare Zeit immer ressourcenhungriger. Die zugrundeliegenden Skalierungsgesetze diktieren einen klaren Pfad: Mehr Rechenleistung führt verlässlich zu fähigeren Modellen. Dieser technische Umstand zwingt Entwickler zu massiven Vorabinvestitionen in Hardware, lange bevor neue Systeme marktreif sind. Anzeige Diskrepanz zwischen Umsatz und Infrastruktur Das Unternehmen verzeichnet parallel ein hohes Umsatzwachstum, angetrieben durch eine intensive Nutzung der API und neue Enterprise-Kunden. Die reinen Betriebskosten für die Inferenz bestehender Systeme und das parallele Training der nächsten Generation übersteigen diese Einnahmen jedoch bei weitem. Die finanzielle Lücke zwischen laufenden Einnahmen und notwendigen Ausgaben wächst in den kommenden Jahren dadurch rasant an. Um die technologische Führung in einem stark umkämpften Markt zu behaupten, sichert sich der KI-Entwickler derzeit weltweit Kapazitäten in Rechenzentren. Diese langfristigen Verträge binden enormes Kapital und belasten die Bilanz zusätzlich. Profitabilität rückt in weite Ferne Frühere Finanzplanungen gingen noch davon aus, die Gewinnschwelle deutlich früher in diesem Jahrzehnt zu erreichen. Durch den ungeplanten Mehrbedarf von 111 Milliarden US-Dollar verschiebt sich der Zeitpunkt für einen profitablen Geschäftsbetrieb weiter in die Zukunft. Das Erreichen der schwarzen Null hängt nun maßgeblich davon ab, ob die breite Anwendung der Modelle zu sprunghaft höheren Einnahmen führt. Alternativ müssen neue Algorithmen die Hardwarekosten beim Training signifikant dämpfen. Bis dahin bleibt der Ausbau der Infrastruktur ein defizitäres Geschäft. Anzeige

  • Rekordsumme für OpenAI treibt Unternehmenswert in neue Höhen

    Sam Altman mit einem Haufen voller Geld

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI steht kurz vor dem Abschluss einer gigantischen Finanzierungsrunde über 100 Milliarden US-Dollar.
    Durch die massiven Investitionen von Amazon, SoftBank und Nvidia steigt die Bewertung des Unternehmens auf über 850 Milliarden US-Dollar.
    Das frische Kapital soll primär in den Aufbau riesiger Rechenkapazitäten und eigener Server-Infrastruktur fließen.

    Bloomberg: OpenAI Funding on Track to Top $100 Billion in Latest Round

    TechCrunch: OpenAI reportedly finalizing $100B deal at more than $850B valuation

    OpenAI schließt in Kürze eine Finanzierungsrunde über mehr als 100 Milliarden US-Dollar ab. Das geht aus Informationen der Nachrichtenagentur Bloomberg hervor, wonach die Gesamtbewertung des Entwicklers durch diesen Schritt auf über 850 Milliarden US-Dollar steigt. Tech-Konzerne sichern sich strategischen Zugang Die neue Kapitalspritze setzt sich aus massiven Investitionen mehrerer internationaler Technologiekonzerne zusammen. Amazon führt diese Runde mit einer geplanten Einlage von bis zu 50 Milliarden US-Dollar an. Der Cloud-Anbieter baut damit seine strategischen Verbindungen im Bereich der künstlichen Intelligenz signifikant aus. Der japanische Technologie-Investor SoftBank verhandelt parallel über eine Beteiligung in Höhe von 30 Milliarden US-Dollar. Nvidia steuert weitere 20 Milliarden US-Dollar bei. Anzeige Die extrem hohen Summen belegen den enormen finanziellen Bedarf bei der Entwicklung von großen KI-Modellen. Für das Training der nächsten Generationen benötigt OpenAI riesige Rechenkapazitäten und spezialisierte Hardware in Rechenzentren. Die direkte finanzielle Beteiligung von Nvidia als Marktführer für KI-Beschleuniger verdeutlicht dabei die enge Verzahnung von Hardware-Produzenten und Software-Entwicklern. Diese Kooperation sichert dem Entwicklerstudio einen bevorzugten Zugriff auf dringend benötigte Server-Infrastruktur. Der finanzielle Spielraum ermöglicht es dem Unternehmen zudem, den Bau eigener, auf komplexe Berechnungen optimierter Rechenzentren voranzutreiben. Damit sinkt langfristig die Abhängigkeit von einzelnen externen Cloud-Dienstleistern. Mit der neuen Bewertung von 850 Milliarden US-Dollar etabliert sich das Unternehmen in einer Liga mit den wertvollsten börsennotierten Konzernen der Welt. Der finale Vertragsabschluss mit allen Geldgebern erfolgt voraussichtlich in den kommenden Wochen.

  • Milliarden-Deals und ein kurioser Plagiats-Eklat beim KI-Gipfel

    Eingangskontrollen vor dem Kongress

    Nano Banana

    Kurzfassung

    Quellen

    Indien plant bis 2028 gewaltige Investitionen von 200 Milliarden US-Dollar in seine heimische KI-Infrastruktur. Gleichzeitig sichern sich lokale Start-ups Milliarden-Finanzierungen für neue Rechenzentren, während IT-Riesen wie Infosys auf autonome Software-Agenten setzen. Trotz dieses immensen Wachstums und 100 Millionen wöchentlichen ChatGPT-Nutzern prägen auch Chaos beim Einlass und ein Plagiatsskandal um einen chinesischen Roboter das Gipfeltreffen.

    India AI Impact Summit 2026 (offizielle Website)

    Reuters: Forscher werden wegen falschem Roboter verwiesen

    India-AI Impact Summit 2026 – neue Verträge

    OpenAI hat 100 Millionen Nutzer in Indien

    Indiens Regierung peilt auf dem AI Impact Summit in Neu-Delhi Investitionen von 200 Milliarden US-Dollar für KI-Infrastruktur an. Während Milliarden-Deals und Partnerschaften den Kongress prägen, überschatten organisatorische Mängel und ein kurioser Plagiats-Eklat das Treffen. Kapazitätsausbau und Firmen-Kooperationen Um die Abhängigkeit von ausländischen Server-Farmen zu reduzieren, treibt der Subkontinent den Aufbau eigener Rechenzentren intensiv voran. Ein zentrales Projekt ist das heimische Start-up Neysa, welches eine Finanzierung über 1,2 Milliarden US-Dollar vom Investor Blackstone gesichert hat. Diese Mittel fließen in den direkten Erwerb von Hochleistungs-Chips für das Training großer Sprachmodelle. Parallel rüsten indische IT-Dienstleister ihre Software-Angebote gezielt auf. Infosys kooperiert ab sofort mit dem US-Unternehmen Anthropic, um hochspezialisierte KI-Agenten für den Unternehmenseinsatz zu entwickeln. Solche autonomen Programme sollen komplexe Geschäftsabläufe steuern und eigenständig Entscheidungen treffen. Diese Ankündigung sorgte unmittelbar für spürbare Unruhe bei klassischen IT-Aktien, da Investoren eine sinkende Nachfrage nach traditionellen Dienstleistungen befürchten. Anzeige Enormes Wachstum und kuriose Zwischenfälle Wie groß das Interesse an künstlicher Intelligenz in Indien ausfällt, zeigen aktuelle Statistiken von OpenAI. Laut Unternehmenschef Sam Altman nutzen mittlerweile 100 Millionen Menschen im Land den Chatbot ChatGPT wöchentlich. Diese gewaltige Nutzerschaft macht den indischen Markt zu einem der wichtigsten Testfelder für neue Funktionen. Trotz dieser rasanten Verbreitung bremsen politische Regulierungsdebatten das Entwicklungstempo, was bei internationalen Partnern auf Unmut stößt. Neben strategischen Diskussionen prägten vor allem organisatorische Ausfälle die ersten Tage des Kongresses, wobei die Nachrichtenagentur Reuters von massiven Warteschlangen und erheblicher Verwirrung bei den Einlasskontrollen berichtete. Zusätzlich musste die Konferenzleitung hart durchgreifen und verwies eine lokale Universität komplett vom Veranstaltungsgelände. Die Forschungseinrichtung hatte zuvor einen eingekauften Roboter aus chinesischer Fertigung fälschlicherweise als eigene Entwicklung präsentiert. Neben den lokalen Zwischenfällen bemühen sich europäische Akteure um eine stärkere Vernetzung auf dem asiatischen Markt, wobei der direkte Wissenstransfer im Mittelpunkt der Gespräche steht. Der internationale Gipfel schließt am 19. Februar.

  • Elon Musk kritisiert Anthropic nach Rekordbewertung von 380 Milliarden $

    Elon Musk zeigt auf Anthropic

    Nano Banana

    Kurzfassung

    Quellen

    Das KI-Unternehmen Anthropic hat sich in einer neuen Finanzierungsrunde 30 Milliarden US-Dollar gesichert und wird nun mit 380 Milliarden US-Dollar bewertet.
    Der finanzielle Erfolg basiert maßgeblich auf der Agenten-KI Claude Code, die bei Entwicklern und Unternehmenskunden für hohe Umsätze sorgt.
    Gleichzeitig nutzt Elon Musk die Ankündigung, um Anthropic öffentlich auf seiner Plattform X für eine vermeintliche Voreingenommenheit der Modelle anzugreifen.

    Anthropic: Anthropic raises $30 billion in Series G funding at $380 billion post-money valuation

    Reuters: Anthropic valued at $380 billion in latest funding round

    TechCrunch: Anthropic raises another $30B in Series G, with a new value of $380B

    Das KI-Unternehmen Anthropic schließt eine Finanzierungsrunde über 30 Milliarden US-Dollar ab und steigert seine Bewertung auf 380 Milliarden US-Dollar. Die Bekanntgabe auf der Plattform X nutzte Tesla-Chef Elon Musk umgehend für scharfe Kritik an den Modellen des Konkurrenten. Vorwürfe auf sozialem Netzwerk In seiner Reaktion auf die offizielle Ankündigung von Anthropic bezeichnete Musk die KI-Modelle des Unternehmens als misanthropisch und böse. Laut seinen Aussagen weise das Sprachmodell Claude Voreingenommenheiten gegenüber bestimmten demografischen Gruppen auf. Konkret warf er der Software vor, Vorurteile gegen Weiße, Asiaten, Heterosexuelle und Männer zu besitzen. Musk, der mit seinem eigenen Start-up xAI und dem Chatbot Grok in direkter Konkurrenz zu Anthropic steht, forderte eine sofortige Behebung dieser vermeintlichen Fehler. Die Kritik folgt auf vorangegangene Spannungen zwischen den beiden Firmen. Berichten zufolge hatte Anthropic xAI zuvor den Zugriff auf seine Claude-Modelle verwehrt. Unabhängige Überprüfungen der von Musk behaupteten systematischen Diskriminierung stehen noch aus. In der Branche sind Debatten über Bias in Trainingsdaten und den daraus resultierenden Antworten von Large Language Models (LLM) jedoch alltäglich.

    Twitter Beitrag – Cookies links unten aktivieren.

    Your AI hates Whites & Asians, especially Chinese, heterosexuals and men. This is misanthropic and evil. Fix it. Frankly, I don’t think there is anything you can do to escape the inevitable irony of Anthropic ending up being Misanthropic. You were doomed to this fate when you…— Elon Musk (@elonmusk) February 12, 2026 Rekordfinanzierung für Agenten-KI Ungeachtet der Äußerungen des Konkurrenten verzeichnet Anthropic ein enormes finanzielles Wachstum. Die aktuelle Series-G-Runde wird von der singapurischen Staatsbeteiligungsgesellschaft GIC und dem Investmentunternehmen Coatue angeführt. Mit der frischen Kapitalspritze verdoppelt das Start-up seine Bewertung innerhalb von nur fünf Monaten auf 380 Milliarden US-Dollar. Damit festigt das Unternehmen seine Position im Wettbewerb gegen OpenAI, Google und Meta. Das frische Kapital soll laut Angaben des Managements in den Ausbau der Recheninfrastruktur sowie in die weitere Forschung fließen. Den Kern des aktuellen wirtschaftlichen Erfolgs bildet dabei das Produkt Claude Code. Im Gegensatz zu einfachen Code-Generatoren, die lediglich Textbausteine vorschlagen, handelt es sich hierbei um einen sogenannten Agenten. Die Software plant und analysiert komplexe Programmieraufgaben über mehrere Schritte hinweg eigenständig und führt diese in der lokalen Entwicklungsumgebung aus. Anzeige Fokus auf Unternehmenskunden Dieser technische Ansatz stößt bei Entwicklern auf Resonanz. Anthropic gibt an, dass Claude Code mittlerweile mehr als 2,5 Milliarden US-Dollar zum hochgerechneten Jahresumsatz von insgesamt 14 Milliarden US-Dollar beiträgt. Das Unternehmen verzeichnet laut eigenen Zahlen ein starkes Wachstum bei Geschäftskunden, wobei über 500 Abnehmer jährlich mehr als eine Million US-Dollar für die Dienste ausgeben. In der Praxis muss sich nun zeigen, ob die Infrastruktur der stetig wachsenden Rechenlast dieser Systeme dauerhaft standhält.

  • Weave Robotics verkauft Wäsche-Roboter Isaac 0 für 8.000 US-Dollar

    Der Isaac 0 Roboter faltet Wäsche

    Nano Banana

    Kurzfassung

    Quellen

    Weave Robotics verkauft den Haushaltsroboter Isaac 0 ab sofort für einen Preis von 7.999 US-Dollar. Das Gerät nutzt Kameras und Greifarme, um Standardwäsche wie T-Shirts und Hosen autonom zu falten. Bei Fehlern oder komplexen Textilien übernimmt ein menschlicher Operateur per Fernsteuerung die Kontrolle über den Roboter. Das System ist als mobile Plattform konzipiert und unterscheidet sich damit von stationären Vorgängermodellen.

    Isaac 0 – Weave Robotics

    Order your Isaac 0 – Weave Robotics

    Introducing Isaac 0 – Weave Robotics

    Y Combinator – Weave Robotics (Company Profile)

    Das US-Startup Weave Robotics öffnet die Bestellbücher für seinen ersten Haushaltsroboter „Isaac 0“. Das 7.999 US-Dollar teure System soll autonom Wäsche falten, greift bei komplexen Aufgaben jedoch auf menschliche Fernsteuerung zurück. Hardware-Architektur und Kinematik Anders als gescheiterte Vorgängerprojekte wie „Laundroid“, die auf kühlschrankgroße, stationäre Kästen setzten, konzipiert Weave Robotics den Isaac 0 als mobile Plattform. Das Gerät verfügt über eine verfahrbare Basis, einen höhenverstellbaren Torso sowie zwei Manipulatoren mit Greifern. Kamerasensoren im Kopfbereich erfassen die Umgebung und die zu bearbeitenden Textilien. Die Funktionsweise zielt auf unsortierte Wäscheberge ab. Der Roboter entnimmt einzelne Kleidungsstücke, analysiert deren Art sowie Lage im Raum und führt anschließend den Faltvorgang durch. Laut Herstellerangaben bewältigt die Mechanik Standardtextilien wie T-Shirts und Hosen zuverlässig. Bei formlosen oder kleinteiligen Objekten wie Socken stößt die aktuelle Kinematik jedoch an physikalische Grenzen. Die Hardware ist als generische Plattform ausgelegt, die perspektivisch auch andere Aufräumarbeiten im Haushalt übernehmen soll.

    Twitter Beitrag – Cookies links unten aktivieren.

    Today we’re releasing Isaac 0: our first robot for the home. And we made a short video for our first customers to share what it’s been like having one in their home 😊 pic.twitter.com/rDnpy0zMdi — Weave Robotics (@weaverobotics) February 11, 2026 Autonomie durch Fernsteuerung Technisch relevant ist der Umgang mit der begrenzten Zuverlässigkeit aktueller KI-Modelle bei der Manipulation weicher, verformbarer Objekte. Weave Robotics setzt nicht auf volle Autonomie, sondern integriert eine Teleoperations-Schnittstelle. Erkennt die Software eine Situation, die sie nicht sicher lösen kann – etwa ein verheddertes Kleidungsstück –, übernimmt ein menschlicher Operateur über eine Internetverbindung die Kontrolle. Dieser „Human-in-the-Loop“-Ansatz dient als Brückentechnologie. Die manuellen Eingriffe korrigieren nicht nur akute Fehler, sondern generieren gleichzeitig Trainingsdaten für das neuronale Netz. Mit jedem manuellen Eingriff soll die Fehlerrate des Systems sinken. Für den Nutzer bedeutet dies jedoch, dass Kameras und Mikrofone permanent aktiv sein müssen und Daten an die Server des Herstellers fließen. Weave Robotics versichert zwar strenge Datenschutzprotokolle, doch die physische Präsenz vernetzter Sensorik im privaten Wohnraum bleibt eine Hürde. Anzeige Markteinordnung und Preispunkt Mit einem Verkaufspreis von 7.999 US-Dollar und einer erforderlichen Anzahlung von 1.000 US-Dollar adressiert das Y-Combinator-geförderte Startup ausschließlich Early Adopters. Der Preis reflektiert die komplexe Mechatronik und die notwendige Server-Infrastruktur für die Teleoperation. In der Praxis muss sich zeigen, ob die Arbeitsgeschwindigkeit des Isaac 0 den hohen Anschaffungspreis rechtfertigt. Bisherige Versuche in diesem Segment scheiterten meist an der Diskrepanz zwischen technischer Komplexität und dem geringen Mehrwert für den Endkunden. Die Auslieferung der ersten Einheiten soll den Beweis antreten, dass Robotik im Jahr 2026 über reine Saug- und Wischfunktionen hinausgehen kann.

  • Runway sichert 315 Millionen Dollar für KI-Weltmodelle

    Ein einer Weltkugel wird gearbeitet

    Nano Banana

    Kurzfassung

    Quellen

    Runway hat in einer Series-E-Finanzierungsrunde 315 Millionen US-Dollar eingesammelt. Die Unternehmensbewertung steigt durch das frische Kapital auf 5,3 Milliarden US-Dollar. Der Fokus liegt auf der Entwicklung von „World Models“, die physikalische Zusammenhänge simulieren. Zu den Investoren gehören neben General Atlantic auch Nvidia, AMD und Adobe.

    Runway – New Funding to Scale World Simulation

    TechCrunch – AI video startup Runway raises $315M

    Bloomberg – AI Video Startup Runway Valued at $5.3 Billion

    Das KI-Startup Runway sichert sich in einer Series-E-Finanzierungsrunde frisches Kapital und steigert seine Bewertung auf 5,3 Milliarden US-Dollar. Der Fokus verschiebt sich dabei technologisch: Weg von reiner Videogenerierung, hin zu sogenannten „World Models“, die physikalische Zusammenhänge verstehen sollen. Am heutigen Dienstag gab Runway bekannt, dass es 315 Millionen US-Dollar (ca. 290 Millionen Euro) eingesammelt hat. Die Finanzierungsrunde wird erneut vom Private-Equity-Unternehmen General Atlantic angeführt. Mit dem frischen Kapital steigt die Bewertung des New Yorker Unternehmens auf 5,3 Milliarden US-Dollar. Zum Vergleich: Noch im April 2025 lag der Firmenwert bei einer Runde über 308 Millionen Dollar bei rund 3 Milliarden Dollar. Prominente Hardware-Partner an Bord Die Liste der Co-Investoren liest sich wie ein Verzeichnis der aktuellen Hardware- und Software-Elite. Neben General Atlantic beteiligen sich unter anderem Nvidia, AMD Ventures und Adobe Ventures. Insbesondere die Präsenz von Nvidia und AMD verdeutlicht den enormen Rechenbedarf, den Runway für seine kommenden Modelle veranschlagt. Dass Adobe erneut investiert, deutet auf eine weitere Integration der Technologie in kreative Workflows hin. Laut CEO Cristóbal Valenzuela sollen die Mittel primär dazu dienen, die nächste Generation der „World Models“ zu trainieren und die dafür nötige Infrastruktur auszubauen. Das Unternehmen plant zudem, sein Personal in den Bereichen Forschung und Engineering aufzustocken. Anzeige Vom Pixel zur Physik: Was sind „World Models“? Technisch markiert dieser Schritt eine Evolution der generativen KI. Während bisherige Text-zu-Video-Modelle (wie das im Dezember 2025 veröffentlichte Gen-4.5) darauf trainiert waren, Pixelwahrscheinlichkeiten vorherzusagen, um ästhetisch ansprechende Videos zu erzeugen, gehen „General World Models“ (GWM) einen Schritt weiter. Ein Weltmodell versucht, eine interne Repräsentation der physischen Umgebung aufzubauen. Es soll nicht nur wissen, wie eine fallende Tasse aussieht, sondern verstehen, dass sie aufgrund der Schwerkraft fällt und beim Aufprall zerspringt. Das Ziel ist eine Simulation von Kausalität und räumlichen Beziehungen. Runway hatte bereits Ende 2025 erste Versionen (GWM-Worlds und GWM-Robotics) vorgestellt. Die Relevanz dieser Technologie reicht über die Filmindustrie hinaus: Solche Simulatoren sind essenziell für das Training von Robotern oder autonomen Systemen, die in einer sicheren, virtuellen Umgebung lernen müssen, bevor sie in der Realität agieren. Teurer Wettlauf gegen Tech-Giganten Der Vorstoß in Richtung Weltmodelle ist kein Alleingang. Runway konkurriert hier direkt mit Schwergewichten wie Google DeepMind, OpenAI (Sora) und dem von Fei-Fei Li gegründeten Startup World Labs. Diese Systeme verschlingen enorme Rechenkapazitäten, was die hohen Investitionssummen erklärt. In der Praxis muss sich allerdings noch zeigen, wie robust diese Simulationen außerhalb von kontrollierten Demos funktionieren. Bisherige generative Modelle halluzinieren häufig physikalische Gesetzmäßigkeiten – Objekte verschwinden oder bewegen sich unnatürlich. Ob die neuen GWM-Ansätze diese fundamentalen Probleme lösen und verlässliche Simulationen für die Industrie liefern können, bleibt abzuwarten. Das frische Kapital erkauft Runway zumindest die Zeit und die Rechenleistung, um diesen Beweis anzutreten.

  • Microsoft Q2 2026: 200 Milliarden Dollar floßen in KI-Infrastruktur

    Ein Microsoft Headquarter mit jeder Menge Geld

    Nano Banana

    Kurzfassung

    Quellen

    Microsoft investierte seit 2024 kumuliert über 200 Milliarden US-Dollar in den Ausbau von KI-Hardware und Rechenzentren. Die Cloud-Plattform Azure wuchs um 39 Prozent, während die Gaming-Sparte im zweiten Quartal Verluste verzeichnete. Windows 11 erreichte die Marke von einer Milliarde aktiver Nutzer weltweit deutlich schneller als der Vorgänger.

    The Verge – Microsoft reports strong cloud earnings in Q2 as gaming declines

    Investing.com – Microsoft Q2 2026: Cloud-Umsatz übersteigt 50 Mrd. US-Dollar

    MarketScreener – Microsofts Investitionsausgaben steigen sprunghaft an

    heise online – Microsoft übertrifft Erwartungen, aber Börse bestraft schwächeren Cloud-Ausblick

    Aktiencheck – Microsoft Q2 2026 Quartalszahlen: Gewinn und EPS springen um 60%

    Microsoft öffnet die Bücher für das zweite Quartal 2026 und zeigt eine weiterhin aggressive Investitionsstrategie. Die Ausgaben für künstliche Intelligenz haben seit 2024 kumuliert die Marke von 200 Milliarden US-Dollar durchbrochen, während das Cloud-Geschäft das Wachstum stützt. Kapitalausgaben auf Rekordniveau Der Konzern aus Redmond steckt jeden verfügbaren Dollar in den Ausbau seiner KI-Kapazitäten. Satya Nadella treibt den Bau neuer Rechenzentren und den Kauf von Spezialchips voran, was die Kapitalausgaben im abgelaufenen Quartal erneut in die Höhe trieb. Diese Strategie ist teuer, aber laut Microsoft alternativlos. Allein seit dem Start der großen KI-Offensive im Jahr 2024 flossen über 200 Milliarden US-Dollar in die Infrastruktur. Analysten bewerten diese Summen kritisch, da sich die Rentabilität dieser enormen Hardware-Investitionen erst langfristig zeigen wird. Anzeige Cloud-Sparte als Wachstumsmotor Die Rechnung scheint operativ aufzugehen, denn die Cloud-Sparte liefert starke Zahlen. Der Umsatz in diesem Segment kletterte erstmals über die Marke von 50 Milliarden US-Dollar. Besonders die Azure-Plattform sticht hervor. Sie verzeichnete ein Wachstum von 39 Prozent und übertraf damit die Erwartungen der Wall Street leicht. Unternehmen weltweit migrieren ihre Workloads in die Cloud, um neue KI-Funktionen nutzen zu können. Der Gewinn pro Aktie sprang im Gesamtkonzern sogar um 60 Prozent nach oben, was die Effizienz der Kerngeschäfte unterstreicht. Windows 11 erreicht Meilenstein Neben den Cloud-Erfolgen gibt es positive Nachrichten vom klassischen Betriebssystem. Windows 11 läuft mittlerweile auf einer Milliarde aktiver Geräte weltweit. Dieser Wert wurde deutlich schneller erreicht als beim Vorgänger Windows 10. Ein Grund hierfür ist der anstehende Support-Stopp älterer Versionen, der Unternehmen und Privatnutzer zum Umstieg zwingt. Auch die Integration von lokalen KI-Funktionen in das Betriebssystem treibt die Adaptionsrate bei neuer Hardware an. Sorgenfalten bei Gaming und Ausblick Nicht alle Unternehmensbereiche profitieren vom aktuellen Technologie-Boom. Die Gaming-Sparte verzeichnete Rückgänge beim Umsatz und rutschte im zweiten Quartal sogar in die roten Zahlen. Fehlende Blockbuster-Titel und eine Sättigung im Konsolenmarkt belasten das Ergebnis. An der Börse reagierten Anleger trotz der Gewinnsteigerungen verhalten. Der Ausblick für das kommende Quartal fiel im Cloud-Bereich etwas schwächer aus als erhofft. Die Aktie gab nachbörslich nach, da der Markt die Diskrepanz zwischen den rekordhohen Ausgaben und dem vorsichtigen Ausblick neu bewerten muss.

  • Musk gegen OpenAI: Die 134-Milliarden-Dollar-Abrechnung ist da

    OpenAI wird von Microsoft gesteuert, Musk zeigt drauf

    Nano Banana

    Kurzfassung

    Quellen

    Elon Musk hat seine Klage gegen OpenAI und Microsoft massiv ausgeweitet und fordert nun bis zu 134 Milliarden US-Dollar Schadensersatz. Die Anwälte nutzen das sogenannte RICO-Gesetz, das eigentlich für organisierte Kriminalität gedacht ist, um Microsoft Marktmanipulation vorzuwerfen. Musk argumentiert, OpenAI habe seine ursprüngliche Non-Profit-Mission verraten und fungiere nur noch als verlängerter Arm von Microsoft zur Gewinnmaximierung. Der Prozess könnte die engen Verflechtungen zwischen dem Softwaregiganten und dem KI-Labor juristisch auflösen und den Markt für Wettbewerber öffnen.

    Golem.de – Klage gegen OpenAI: Musk fordert bis zu 134 Milliarden US-Dollar Entschädigung

    TechCrunch – Musk wants up to $134B in OpenAI lawsuit

    The Decoder – OpenAI gegen Elon Musk: Tausende Seiten Beweismaterial offengelegt

    Süddeutsche Zeitung – Musk will bis zu 109,4 Milliarden Dollar von OpenAI

    T-Online – Musk gegen OpenAI: Klage über bis zu 109 Milliarden Dollar

    Der Machtkampf um die Zukunft der künstlichen Intelligenz erreicht vor Gericht eine neue Dimension. Elon Musk verlangt von OpenAI und Microsoft eine Entschädigung von bis zu 134 Milliarden US-Dollar wegen angeblichen Marktmissbrauchs und Vertragsbruchs. Vorwurf des Betrugs und historische Forderungen In einer aktualisierten Klageschrift beziffert der Tech-Milliardär den ihm entstandenen Schaden auf eine historische Summe. Die Anwälte Musks argumentieren, dass OpenAI seine ursprüngliche Mission als Non-Profit-Organisation verraten habe, um als faktische Tochtergesellschaft von Microsoft Gewinne zu maximieren. Die Klagepartei stützt sich dabei auf den „Racketeer Influenced and Corrupt Organizations Act“ (RICO), ein US-Bundesgesetz, das ursprünglich zur Bekämpfung der organisierten Kriminalität geschaffen wurde und drastische Strafen ermöglicht. Die Forderung beläuft sich in der Spitze auf 134 Milliarden US-Dollar. Diese Summe setzt sich aus verschiedenen Berechnungsgrundlagen zusammen, wobei Musk unter anderem dreifachen Schadensersatz für vermeintliche kartellrechtliche Verstöße geltend macht. Alternativ fordern die Anwälte eine Rückabwicklung der Investitionen, die den Wert der Beteiligung an OpenAI auf 109,4 Milliarden Dollar taxiert. Unabhängig von der genauen Berechnungsmethode handelt es sich um eine der höchsten Schadensersatzforderungen in der Geschichte der Technologiebranche. Anzeige Microsoft im Fadenkreuz der Justiz Die Klage richtet sich nicht nur gegen die Führungsetage von OpenAI rund um Sam Altman, sondern zielt aggressiv auf die Rolle von Microsoft ab. Musk wirft dem Softwaregiganten vor, durch seine Milliardeninvestitionen den Markt für generative KI zu monopolisieren und Wettbewerber systematisch zu verdrängen. Laut der Anklage fungiert OpenAI nicht mehr als unabhängiges Forschungslabor, sondern als verlängerter Arm aus Redmond, um Microsofts Vormachtstellung im Cloud- und Suchmaschinenmarkt zu sichern. Laut den Gerichtsdokumenten täuschte die Führung von OpenAI Investoren und Spender der ersten Stunde bewusst über die wahren Absichten. Musk sieht seine frühen Zuwendungen von rund 44 Millionen US-Dollar und seine investierte Arbeitszeit missbraucht, da die entwickelten Technologien nun exklusiv in geschlossenen Microsoft-Produkten zum Einsatz kommen. Dies widerspreche den Gründungsverträgen, die eine offene Entwicklung zum Wohle der Menschheit vorsahen. Offenlegung interner Strategiepapiere Der juristische Schlagabtausch führte bereits zur Offenlegung umfangreicher interner Kommunikation. Tausende Seiten an E-Mails und Protokollen geben tiefe Einblicke in die Gründungsphase des KI-Labors und die wachsende Entfremdung zwischen Musk und Altman. Diese Dokumente nutzen Musks Anwälte nun, um eine systematische Verschwörung zur Beseitigung von Wettbewerbern zu konstruieren. Beobachter werten diesen Schritt als Versuch Musks, die öffentliche Wahrnehmung zu beeinflussen und die Geschäftsbeziehungen zwischen OpenAI und Microsoft juristisch zu entflechten. Kritiker merken jedoch an, dass Musks eigenes KI-Unternehmen xAI mittlerweile in direkter Konkurrenz zu OpenAI steht. Der Prozessausgang könnte somit maßgeblich entscheiden, ob der KI-Markt weiterhin von wenigen großen Playern dominiert wird oder ob sich die Machtverhältnisse neu ordnen müssen.

  • OpenAI bricht mit Nvidia-Tradition: 10-Milliarden-Deal mit Cerebras

    Eine Grafik mit OpenAI und Cerebras

    OpenAI

    Kurzfassung

    Quellen

    OpenAI hat einen langfristigen Vertrag über rund zehn Milliarden US-Dollar mit dem Chip-Hersteller Cerebras geschlossen, um Rechenkapazitäten von bis zu 750 Megawatt zu mieten. Statt auf klassische Nvidia-GPUs setzt OpenAI hierbei auf die spezielle „Wafer-Scale Engine“-Technologie von Cerebras, die besonders effizient für die KI-Inferenz ist. Der Deal dient der strategischen Diversifizierung der Hardware-Lieferkette und soll Engpässe bei der Ausführung von KI-Modellen ab 2027 verringern.

    The Decoder: OpenAI kauft Rechenpower für über zehn Milliarden Dollar bei Cerebras

    TechCrunch: OpenAI signs deal, worth $10B, for compute from Cerebras

    WSJ: OpenAI Forges Multibillion-Dollar Computing Partnership with Cerebras

    Reuters: OpenAI to buy compute capacity from Cerebras in latest AI deal

    Hardwareluxx: 750 MW und 10 Milliarden US-Dollar: OpenAI und Cerebras verkünden Partnerschaft

    OpenAI diversifiziert seine Infrastruktur massiv und schließt einen Deal über rund zehn Milliarden US-Dollar mit dem Chip-Spezialisten Cerebras ab. Diese Partnerschaft sichert gigantische Kapazitäten abseits von Nvidia und signalisiert einen strategischen Wandel hin zur Inferenz-Optimierung. Der Kampf um Rechenkapazitäten erreicht eine neue Dimension. OpenAI verpflichtet sich, über die kommenden Jahre Rechenleistung im Wert von über zehn Milliarden US-Dollar von Cerebras Systems zu beziehen. Die Vereinbarung sieht vor, dass das Startup eine Infrastruktur bereitstellt, die bis zu 750 Megawatt Strom verbraucht. Zum Vergleich: Das entspricht der Leistung eines mittleren Kohlekraftwerks und verdeutlicht den enormen Energiehunger moderner KI-Modelle. Der Vertrag läuft Berichten zufolge über drei Jahre und startet, sobald die entsprechenden Rechenzentren vollständig operativ sind, voraussichtlich ab 2027. Wafer-Scale-Technologie als Alternative Technisch setzt OpenAI damit auf einen fundamental anderen Ansatz als bei den bisher dominierenden GPUs von Nvidia. Cerebras fertigt sogenannte Wafer-Scale Engines (WSE). Während herkömmliche Chiphersteller hunderte kleiner Prozessoren aus einem Silizium-Wafer schneiden, belässt Cerebras den Wafer als einen einzigen, riesigen Chip intakt. Dieser Ansatz eliminiert die Kommunikationslatenz zwischen einzelnen Chips fast vollständig, da Daten nicht über langsame externe Verbindungen gesendet werden müssen. Das Ergebnis ist eine extrem hohe Speicherbandbreite und Rechengeschwindigkeit. Diese Architektur eignet sich besonders gut für große Modelle, die enorme Datenmengen parallel verarbeiten müssen. Für OpenAI bedeutet dies potenziell schnellere Antwortzeiten bei ChatGPT und komplexen Agenten-Systemen. Anzeige Strategischer Schwenk zur Inferenz Die Partnerschaft markiert eine klare Verschiebung in der Ressourcenplanung von Sam Altman. Bisher lag der Fokus der Industrie primär auf dem Training neuer Modelle, einer Disziplin, in der Nvidias H100- und Blackwell-Chips als unangefochtener Standard gelten. Der Deal mit Cerebras zielt jedoch spezifisch auf die Inferenz ab – also die Anwendung der trainierten KI im täglichen Betrieb. Da OpenAI hunderte Millionen Nutzer bedient, explodieren die Kosten für den laufenden Betrieb. Cerebras verspricht hier eine effizientere Skalierung. Gleichzeitig sendet der Schritt ein deutliches Signal an den Markt: OpenAI ist nicht länger bereit, sich exklusiv auf einen Hardware-Lieferanten zu verlassen. Die Diversifizierung stärkt die Verhandlungsposition gegenüber Nvidia und sichert den Zugriff auf Compute-Ressourcen in einem Markt, in dem Angebotsknappheit zum Alltag gehört.