Schlagwort: Runway

  • Runway stellt erstes „General World Model“ vor und erweitert Gen-4.5 um neue Funktionen

    Runway stellt erstes "General World Model" vor und erweitert Gen-4.5 um native Audiofunktionen

    Runway verbessert Gen-4.5 und hat GWM-1 vorgestellt, das erste sogenannte „General World Model“ des Unternehmens. Gen-4.5 unterstützt nun native Audioerzeugung und Audiobearbeitung sowie Multi-Shot-Editing, bei dem Änderungen in einer Szene auf das gesamte Video übertragen werden können.

    Der Artikel Runway stellt erstes „General World Model“ vor und erweitert Gen-4.5 um neue Funktionen erschien zuerst auf The Decoder.

  • Runway Gen-4.5 schlägt Google und OpenAI im Video-Benchmark

    Ein Faultier mit Runway

    Nano Banana

    Kurzfassung

    Quellen

    Runway veröffentlicht Gen-4.5 und übertrifft laut Vbench-Benchmarks die Konkurrenzmodelle Sora und Veo bei der Bildqualität. Das neue Modell bietet eine verbesserte zeitliche Konsistenz und reduziert unerwünschte Morphing-Effekte bei Bewegungen deutlich. Trotz optischer Überlegenheit weist die KI weiterhin Schwächen beim physikalischen Verständnis von Objekten und Kausalitäten auf. Im Gegensatz zu Google und OpenAI stellt Runway das Modell zeitnah für Nutzer zur Verfügung.

    Runway – Introducing Runway Gen-4.5

    The Decoder – Runway Gen-4.5 beansprucht Benchmark-Führung vor Sora und Veo

    The Verge – Runway says its new text-to-video AI generator has ‚more realistic‘ motion

    MarketScreener – Runway outperforms Google and OpenAI with its new Gen-4.5 video model

    Seeking Alpha – Runway unveils AI video model Gen 4.5 that surpasses Google, OpenAI models in key benchmark

    Runway setzt die Tech-Giganten unter Druck. Mit Gen-4.5 veröffentlicht das Unternehmen ein neues Video-KI-Modell, das in relevanten Benchmarks die Konkurrenz von Sora und Veo hinter sich lässt und visuell neue Maßstäbe setzt. + Quelle: Runway Visuelle Dominanz im Benchmark-Vergleich Das New Yorker Start-up positioniert Gen-4.5 selbstbewusst an der Spitze des Marktes für generative Videos. In standardisierten Tests wie dem Vbench erzielt das Modell signifikant höhere Werte als die noch nicht öffentlich zugänglichen Konkurrenzprodukte von OpenAI und Google. Besonders bei der Bildschärfe und der ästhetischen Qualität sticht die Software hervor. Texturen von Haut, Stoffen oder Landschaften wirken greifbar, während Artefakte wie pixelige Ränder deutlich seltener auftreten als bei der Vorgängerversion. Ein entscheidender Faktor für diese Bewertung ist die zeitliche Konsistenz – also die Fähigkeit der KI, Objekte über die gesamte Videolänge stabil zu halten. Wo andere Modelle dazu neigen, Gesichter oder Hintergründe plötzlich zu verändern, hält Gen-4.5 die Identität der gezeigten Elemente weitgehend aufrecht. Dies erhöht den Nutzwert für professionelle Anwender, die verlässliche Ergebnisse benötigen, statt nur zufällige Clips zu generieren.

    Realistische Bewegungen statt Morphing-Effekte Neben der reinen Bildqualität adressiert Runway eines der größten Probleme aktueller Video-KIs: die Bewegungsdynamik. Frühere Generationen erzeugten oft unnatürliche Übergänge, bei denen sich Objekte ineinander verwandelten, statt sich durch den Raum zu bewegen. Gen-4.5 reduziert dieses sogenannte Morphing spürbar. Personen laufen anatomisch korrekter und komplexe Interaktionen zwischen Licht und Schatten wirken organischer. Die Entwickler führen dies auf optimierte Trainingsdaten und eine verfeinerte Modellarchitektur zurück. Das Ziel war es, den „KI-Look“, der durch schwammige Bewegungen entsteht, zu minimieren. Werden schnelle Kameraschwenks simuliert, bleibt die Geometrie des Raumes nun stabiler, was die Immersion deutlich steigert. Anzeige Physik bleibt die Achillesferse Trotz der optischen Politur stößt auch Gen-4.5 an logische Grenzen. Das Modell simuliert Licht, aber keine Kausalität. In Tests zeigt sich weiterhin, dass die Software physikalische Gesetze oft ignoriert. Objekte gleiten geisterhaft durcheinander oder Flüssigkeiten verhalten sich nicht so, wie es die Schwerkraft verlangen würde. Das Verständnis für Ursache und Wirkung fehlt dem System weitgehend. Runway wählt dennoch eine offensive Strategie bei der Veröffentlichung. Während Google und OpenAI ihre Spitzenmodelle oft hinter geschlossenen Testphasen zurückhalten, macht Runway Gen-4.5 zeitnah für Nutzer verfügbar. Dies sichert dem Unternehmen wertvolle Marktanteile und Feedback aus der Praxis, noch bevor die Konkurrenz ihre Produkte breit ausrollt. Gen-4.5 liefert beeindruckendes Bildmaterial, ersetzt aufgrund der fehlenden physikalischen Präzision aber noch keine komplexen VFX-Simulationen.

  • Runway Gen-4.5 beansprucht Benchmark-Führung vor Sora und Veo

    Runway stellt mit Gen-4.5 sein neuestes Videomodell vor. Laut Herstellerangaben und ausgewählten Benchmarks übertrifft es die Konkurrenz, kämpft aber weiterhin mit grundlegenden Logikfehlern der Videogenerierung.

    Der Artikel Runway Gen-4.5 beansprucht Benchmark-Führung vor Sora und Veo erschien zuerst auf The Decoder.

  • Runway startete Video-Modell-Finetuning

    Runway bietet ab sofort ausgewählten Pilotpartnern die Möglichkeit, seine generativen Video-Modelle individuell anzupassen.

    Der Artikel Runway startete Video-Modell-Finetuning erschien zuerst auf THE-DECODER.de.

  • Selbst Disney hat angeblich nicht genug Trainingsdaten für ein gutes Videomodell

    Video-KI-Startup RunwayML kann Videos mit "Expand Video" auf neue Seitenverhältnisse erweitern

    Lionsgates KI-Partnerschaft mit dem Start-up Runway kommt langsamer voran als geplant.

    Der Artikel Selbst Disney hat angeblich nicht genug Trainingsdaten für ein gutes Videomodell erschien zuerst auf THE-DECODER.de.

  • Runway Aleph kann Videos umfangreich bearbeiten, anstatt sie neu zu generieren

    Video-Frame-Vergleich: weiße Küstenvilla und Farbprobe links, rechts dieselbe Villa mit roter Fassade vor Meer.

    Das KI-Unternehmen Runway hat mit Aleph ein „in-context video model“ vorgestellt, das bestehende Aufnahmen per Text-Eingabe manipulieren kann, anstatt Videos von Grund auf neu zu generieren. Das soll Post-Production-Workflows erleichtern. 

    Der Artikel Runway Aleph kann Videos umfangreich bearbeiten, anstatt sie neu zu generieren erschien zuerst auf THE-DECODER.de.

  • Runway startet KI-Plattform für die Generierung interaktiver visueller Text-Adventures

    Das Video-KI-Start-up Runway startet kommende Woche die Plattform „Game Worlds“, mit der Nutzer eigene Spiele im Stil von Text-Adventures per Texteingabe und Bildgenerierung erstellen können.

    Der Artikel Runway startet KI-Plattform für die Generierung interaktiver visueller Text-Adventures erschien zuerst auf THE-DECODER.de.