
Nano Banana
Kurzfassung
▾
Quellen
▾
Geleakte Dokumente zeigen erste Details zum kommenden KI-Videogenerator Seedance 3.0 von ByteDance.
Das Modell soll durchgängig konsistente Videos mit einer Länge von bis zu zehn Minuten erzeugen.
Eine neue Vektorraum-Architektur speichert dafür Figuren und Umgebungen ab, um visuelle Fehler bei Szenenwechseln zu vermeiden.
Zudem deuten die Berichte auf eine direkte Integration von lippensynchroner, mehrsprachiger Sprachausgabe hin.
Auf X: Seedance 3.0 Leak
Während Seedance 2.0 aktuell den Markt für KI-generierte Videos dominiert, zeigen Leaks bereits interessante Informationen zum Nachfolger. Seedance 3.0 soll laut unbestätigten Berichten zusammenhängende Clips mit einer Spieldauer von über zehn Minuten erzeugen. Architektur für lange Laufzeiten Die Verlängerung der Generierungsdauer fordert enorm viel Rechenleistung. Bei langen Laufzeiten verlieren visuelle Elemente in generierten Videos oft ihre Form. ByteDance testet laut Insidern dafür eine neue Architektur namens „Narrative Memory Chain“. Diese Technik legt spezifische Merkmale von Figuren und Umgebungen in einem persistenten Vektorraum ab. Ein solcher Vektorraum wandelt Bildeigenschaften in mehrdimensionale mathematische Koordinaten um. Das System berechnet räumliche und zeitliche Zusammenhänge dadurch exakter. Das Modell ruft diese Referenzdaten während der gesamten Videoerstellung kontinuierlich ab. Charaktere und physikalische Regeln bleiben so auch bei dynamischen Szenenwechseln über zehn Minuten hinweg erhalten.
Twitter Beitrag – Cookies links unten aktivieren.
Seedance 3.0 specs just leaked. If this is accurate, this isn’t another incremental AI video upgrade. It’s a structural shock to Hollywood. • 10 to 18 minute coherent films in one pass• Persistent narrative memory across scenes• Native multi language voice with emotional… https://t.co/TSo0iZlPLd — VraserX e/acc (@VraserX) February 14, 2026 Integrierte Audiosynchronisation Zusätzlich deuten die Leaks auf eine direkte Verarbeitung von Audio hin. Das System berechnet neben dem Bildmaterial zeitgleich passende Stimmen in verschiedenen Sprachen. Die Lippenbewegungen der generierten Personen passen sich dem Ton an. In der Praxis muss das Modell allerdings erst beweisen, wie gut diese Funktionen arbeiten. Die benötigte Rechenleistung wirft Fragen bezüglich der wirtschaftlichen Nutzbarkeit für Endanwender auf. Anzeige Kontroverse um die aktuelle Version Die sehr frühen Leaks über den Nachfolger folgen kurz auf den Marktstart von Seedance 2.0. Diese Software erzeugt Clips auf einem Niveau, welches wir bisher nicht gesehen haben. Das Modell setzt Texteingaben sehr genau um und stellt flüssige Bewegungen physikalisch korrekt dar. Filmstudios kritisieren die hohe Produktionsqualität und fürchten Urheberrechtsverletzungen durch unlizenzierte Trainingsdaten. Sicherheitsexperten warnen zudem vor der täuschend echten Darstellung menschlicher Gesichter. ByteDance integriert als Schutzmaßnahme unsichtbare Metadaten in die Videodateien, damit Algorithmen die synthetischen Medien erkennen.