Schlagwort: Runway

  • Runway sichert 315 Millionen Dollar für KI-Weltmodelle

    Ein einer Weltkugel wird gearbeitet

    Nano Banana

    Kurzfassung

    Quellen

    Runway hat in einer Series-E-Finanzierungsrunde 315 Millionen US-Dollar eingesammelt. Die Unternehmensbewertung steigt durch das frische Kapital auf 5,3 Milliarden US-Dollar. Der Fokus liegt auf der Entwicklung von „World Models“, die physikalische Zusammenhänge simulieren. Zu den Investoren gehören neben General Atlantic auch Nvidia, AMD und Adobe.

    Runway – New Funding to Scale World Simulation

    TechCrunch – AI video startup Runway raises $315M

    Bloomberg – AI Video Startup Runway Valued at $5.3 Billion

    Das KI-Startup Runway sichert sich in einer Series-E-Finanzierungsrunde frisches Kapital und steigert seine Bewertung auf 5,3 Milliarden US-Dollar. Der Fokus verschiebt sich dabei technologisch: Weg von reiner Videogenerierung, hin zu sogenannten „World Models“, die physikalische Zusammenhänge verstehen sollen. Am heutigen Dienstag gab Runway bekannt, dass es 315 Millionen US-Dollar (ca. 290 Millionen Euro) eingesammelt hat. Die Finanzierungsrunde wird erneut vom Private-Equity-Unternehmen General Atlantic angeführt. Mit dem frischen Kapital steigt die Bewertung des New Yorker Unternehmens auf 5,3 Milliarden US-Dollar. Zum Vergleich: Noch im April 2025 lag der Firmenwert bei einer Runde über 308 Millionen Dollar bei rund 3 Milliarden Dollar. Prominente Hardware-Partner an Bord Die Liste der Co-Investoren liest sich wie ein Verzeichnis der aktuellen Hardware- und Software-Elite. Neben General Atlantic beteiligen sich unter anderem Nvidia, AMD Ventures und Adobe Ventures. Insbesondere die Präsenz von Nvidia und AMD verdeutlicht den enormen Rechenbedarf, den Runway für seine kommenden Modelle veranschlagt. Dass Adobe erneut investiert, deutet auf eine weitere Integration der Technologie in kreative Workflows hin. Laut CEO Cristóbal Valenzuela sollen die Mittel primär dazu dienen, die nächste Generation der „World Models“ zu trainieren und die dafür nötige Infrastruktur auszubauen. Das Unternehmen plant zudem, sein Personal in den Bereichen Forschung und Engineering aufzustocken. Anzeige Vom Pixel zur Physik: Was sind „World Models“? Technisch markiert dieser Schritt eine Evolution der generativen KI. Während bisherige Text-zu-Video-Modelle (wie das im Dezember 2025 veröffentlichte Gen-4.5) darauf trainiert waren, Pixelwahrscheinlichkeiten vorherzusagen, um ästhetisch ansprechende Videos zu erzeugen, gehen „General World Models“ (GWM) einen Schritt weiter. Ein Weltmodell versucht, eine interne Repräsentation der physischen Umgebung aufzubauen. Es soll nicht nur wissen, wie eine fallende Tasse aussieht, sondern verstehen, dass sie aufgrund der Schwerkraft fällt und beim Aufprall zerspringt. Das Ziel ist eine Simulation von Kausalität und räumlichen Beziehungen. Runway hatte bereits Ende 2025 erste Versionen (GWM-Worlds und GWM-Robotics) vorgestellt. Die Relevanz dieser Technologie reicht über die Filmindustrie hinaus: Solche Simulatoren sind essenziell für das Training von Robotern oder autonomen Systemen, die in einer sicheren, virtuellen Umgebung lernen müssen, bevor sie in der Realität agieren. Teurer Wettlauf gegen Tech-Giganten Der Vorstoß in Richtung Weltmodelle ist kein Alleingang. Runway konkurriert hier direkt mit Schwergewichten wie Google DeepMind, OpenAI (Sora) und dem von Fei-Fei Li gegründeten Startup World Labs. Diese Systeme verschlingen enorme Rechenkapazitäten, was die hohen Investitionssummen erklärt. In der Praxis muss sich allerdings noch zeigen, wie robust diese Simulationen außerhalb von kontrollierten Demos funktionieren. Bisherige generative Modelle halluzinieren häufig physikalische Gesetzmäßigkeiten – Objekte verschwinden oder bewegen sich unnatürlich. Ob die neuen GWM-Ansätze diese fundamentalen Probleme lösen und verlässliche Simulationen für die Industrie liefern können, bleibt abzuwarten. Das frische Kapital erkauft Runway zumindest die Zeit und die Rechenleistung, um diesen Beweis anzutreten.

  • Runway stellt erstes „General World Model“ vor und erweitert Gen-4.5 um neue Funktionen

    Runway stellt erstes "General World Model" vor und erweitert Gen-4.5 um native Audiofunktionen

    Runway verbessert Gen-4.5 und hat GWM-1 vorgestellt, das erste sogenannte „General World Model“ des Unternehmens. Gen-4.5 unterstützt nun native Audioerzeugung und Audiobearbeitung sowie Multi-Shot-Editing, bei dem Änderungen in einer Szene auf das gesamte Video übertragen werden können.

    Der Artikel Runway stellt erstes „General World Model“ vor und erweitert Gen-4.5 um neue Funktionen erschien zuerst auf The Decoder.

  • Runway Gen-4.5 schlägt Google und OpenAI im Video-Benchmark

    Ein Faultier mit Runway

    Nano Banana

    Kurzfassung

    Quellen

    Runway veröffentlicht Gen-4.5 und übertrifft laut Vbench-Benchmarks die Konkurrenzmodelle Sora und Veo bei der Bildqualität. Das neue Modell bietet eine verbesserte zeitliche Konsistenz und reduziert unerwünschte Morphing-Effekte bei Bewegungen deutlich. Trotz optischer Überlegenheit weist die KI weiterhin Schwächen beim physikalischen Verständnis von Objekten und Kausalitäten auf. Im Gegensatz zu Google und OpenAI stellt Runway das Modell zeitnah für Nutzer zur Verfügung.

    Runway – Introducing Runway Gen-4.5

    The Decoder – Runway Gen-4.5 beansprucht Benchmark-Führung vor Sora und Veo

    The Verge – Runway says its new text-to-video AI generator has ‚more realistic‘ motion

    MarketScreener – Runway outperforms Google and OpenAI with its new Gen-4.5 video model

    Seeking Alpha – Runway unveils AI video model Gen 4.5 that surpasses Google, OpenAI models in key benchmark

    Runway setzt die Tech-Giganten unter Druck. Mit Gen-4.5 veröffentlicht das Unternehmen ein neues Video-KI-Modell, das in relevanten Benchmarks die Konkurrenz von Sora und Veo hinter sich lässt und visuell neue Maßstäbe setzt. + Quelle: Runway Visuelle Dominanz im Benchmark-Vergleich Das New Yorker Start-up positioniert Gen-4.5 selbstbewusst an der Spitze des Marktes für generative Videos. In standardisierten Tests wie dem Vbench erzielt das Modell signifikant höhere Werte als die noch nicht öffentlich zugänglichen Konkurrenzprodukte von OpenAI und Google. Besonders bei der Bildschärfe und der ästhetischen Qualität sticht die Software hervor. Texturen von Haut, Stoffen oder Landschaften wirken greifbar, während Artefakte wie pixelige Ränder deutlich seltener auftreten als bei der Vorgängerversion. Ein entscheidender Faktor für diese Bewertung ist die zeitliche Konsistenz – also die Fähigkeit der KI, Objekte über die gesamte Videolänge stabil zu halten. Wo andere Modelle dazu neigen, Gesichter oder Hintergründe plötzlich zu verändern, hält Gen-4.5 die Identität der gezeigten Elemente weitgehend aufrecht. Dies erhöht den Nutzwert für professionelle Anwender, die verlässliche Ergebnisse benötigen, statt nur zufällige Clips zu generieren.

    Realistische Bewegungen statt Morphing-Effekte Neben der reinen Bildqualität adressiert Runway eines der größten Probleme aktueller Video-KIs: die Bewegungsdynamik. Frühere Generationen erzeugten oft unnatürliche Übergänge, bei denen sich Objekte ineinander verwandelten, statt sich durch den Raum zu bewegen. Gen-4.5 reduziert dieses sogenannte Morphing spürbar. Personen laufen anatomisch korrekter und komplexe Interaktionen zwischen Licht und Schatten wirken organischer. Die Entwickler führen dies auf optimierte Trainingsdaten und eine verfeinerte Modellarchitektur zurück. Das Ziel war es, den „KI-Look“, der durch schwammige Bewegungen entsteht, zu minimieren. Werden schnelle Kameraschwenks simuliert, bleibt die Geometrie des Raumes nun stabiler, was die Immersion deutlich steigert. Anzeige Physik bleibt die Achillesferse Trotz der optischen Politur stößt auch Gen-4.5 an logische Grenzen. Das Modell simuliert Licht, aber keine Kausalität. In Tests zeigt sich weiterhin, dass die Software physikalische Gesetze oft ignoriert. Objekte gleiten geisterhaft durcheinander oder Flüssigkeiten verhalten sich nicht so, wie es die Schwerkraft verlangen würde. Das Verständnis für Ursache und Wirkung fehlt dem System weitgehend. Runway wählt dennoch eine offensive Strategie bei der Veröffentlichung. Während Google und OpenAI ihre Spitzenmodelle oft hinter geschlossenen Testphasen zurückhalten, macht Runway Gen-4.5 zeitnah für Nutzer verfügbar. Dies sichert dem Unternehmen wertvolle Marktanteile und Feedback aus der Praxis, noch bevor die Konkurrenz ihre Produkte breit ausrollt. Gen-4.5 liefert beeindruckendes Bildmaterial, ersetzt aufgrund der fehlenden physikalischen Präzision aber noch keine komplexen VFX-Simulationen.

  • Runway Gen-4.5 beansprucht Benchmark-Führung vor Sora und Veo

    Runway stellt mit Gen-4.5 sein neuestes Videomodell vor. Laut Herstellerangaben und ausgewählten Benchmarks übertrifft es die Konkurrenz, kämpft aber weiterhin mit grundlegenden Logikfehlern der Videogenerierung.

    Der Artikel Runway Gen-4.5 beansprucht Benchmark-Führung vor Sora und Veo erschien zuerst auf The Decoder.

  • Runway startete Video-Modell-Finetuning

    Runway bietet ab sofort ausgewählten Pilotpartnern die Möglichkeit, seine generativen Video-Modelle individuell anzupassen.

    Der Artikel Runway startete Video-Modell-Finetuning erschien zuerst auf THE-DECODER.de.

  • Selbst Disney hat angeblich nicht genug Trainingsdaten für ein gutes Videomodell

    Video-KI-Startup RunwayML kann Videos mit "Expand Video" auf neue Seitenverhältnisse erweitern

    Lionsgates KI-Partnerschaft mit dem Start-up Runway kommt langsamer voran als geplant.

    Der Artikel Selbst Disney hat angeblich nicht genug Trainingsdaten für ein gutes Videomodell erschien zuerst auf THE-DECODER.de.

  • Runway Aleph kann Videos umfangreich bearbeiten, anstatt sie neu zu generieren

    Video-Frame-Vergleich: weiße Küstenvilla und Farbprobe links, rechts dieselbe Villa mit roter Fassade vor Meer.

    Das KI-Unternehmen Runway hat mit Aleph ein „in-context video model“ vorgestellt, das bestehende Aufnahmen per Text-Eingabe manipulieren kann, anstatt Videos von Grund auf neu zu generieren. Das soll Post-Production-Workflows erleichtern. 

    Der Artikel Runway Aleph kann Videos umfangreich bearbeiten, anstatt sie neu zu generieren erschien zuerst auf THE-DECODER.de.

  • Runway startet KI-Plattform für die Generierung interaktiver visueller Text-Adventures

    Das Video-KI-Start-up Runway startet kommende Woche die Plattform „Game Worlds“, mit der Nutzer eigene Spiele im Stil von Text-Adventures per Texteingabe und Bildgenerierung erstellen können.

    Der Artikel Runway startet KI-Plattform für die Generierung interaktiver visueller Text-Adventures erschien zuerst auf THE-DECODER.de.