Schlagwort: Minuten

  • OpenAIs GPT-5.4 Pro löst offenbar eigenständig offenes Mathematikproblem Erdős #1196

    GPT-5.4 Pro löst ein offenes Erdős-Problem in 80 Minuten. Terence Tao sieht darin einen sinnvollen Beitrag zur Mathematik.

    Der Artikel OpenAIs GPT-5.4 Pro löst offenbar eigenständig offenes Mathematikproblem Erdős #1196 erschien zuerst auf The Decoder.

  • Neues KI-Modell von Google: Lyria 3 Pro generiert bis zu drei Minuten lange Songs

    Google macht KI-Musik länger und breiter verfügbar: Lyria 3 Pro erzeugt Songs mit bis zu drei Minuten Länge, inklusive Strophen, Refrains und Bridges. Laut Google wurde das Modell auf Inhalten trainiert, an denen es die entsprechenden Rechte hat – im Unterschied zum Musikgenerator Suno, der sich wegen möglicher Copyright-Verstöße mit Plattenfirmen vor Gericht streitet.

    Der Artikel Neues KI-Modell von Google: Lyria 3 Pro generiert bis zu drei Minuten lange Songs erschien zuerst auf The Decoder.

  • Seedance 3.0 Leaks: KI-Videos mit zehn Minuten Länge?

    Eine Filmrolle mit mathematischen Formeln

    Nano Banana

    Kurzfassung

    Quellen

    Geleakte Dokumente zeigen erste Details zum kommenden KI-Videogenerator Seedance 3.0 von ByteDance.
    Das Modell soll durchgängig konsistente Videos mit einer Länge von bis zu zehn Minuten erzeugen.
    Eine neue Vektorraum-Architektur speichert dafür Figuren und Umgebungen ab, um visuelle Fehler bei Szenenwechseln zu vermeiden.
    Zudem deuten die Berichte auf eine direkte Integration von lippensynchroner, mehrsprachiger Sprachausgabe hin.

    Auf X: Seedance 3.0 Leak

    Während Seedance 2.0 aktuell den Markt für KI-generierte Videos dominiert, zeigen Leaks bereits interessante Informationen zum Nachfolger. Seedance 3.0 soll laut unbestätigten Berichten zusammenhängende Clips mit einer Spieldauer von über zehn Minuten erzeugen. Architektur für lange Laufzeiten Die Verlängerung der Generierungsdauer fordert enorm viel Rechenleistung. Bei langen Laufzeiten verlieren visuelle Elemente in generierten Videos oft ihre Form. ByteDance testet laut Insidern dafür eine neue Architektur namens „Narrative Memory Chain“. Diese Technik legt spezifische Merkmale von Figuren und Umgebungen in einem persistenten Vektorraum ab. Ein solcher Vektorraum wandelt Bildeigenschaften in mehrdimensionale mathematische Koordinaten um. Das System berechnet räumliche und zeitliche Zusammenhänge dadurch exakter. Das Modell ruft diese Referenzdaten während der gesamten Videoerstellung kontinuierlich ab. Charaktere und physikalische Regeln bleiben so auch bei dynamischen Szenenwechseln über zehn Minuten hinweg erhalten.

    Twitter Beitrag – Cookies links unten aktivieren.

    Seedance 3.0 specs just leaked. If this is accurate, this isn’t another incremental AI video upgrade. It’s a structural shock to Hollywood. • 10 to 18 minute coherent films in one pass• Persistent narrative memory across scenes• Native multi language voice with emotional… https://t.co/TSo0iZlPLd — VraserX e/acc (@VraserX) February 14, 2026 Integrierte Audiosynchronisation Zusätzlich deuten die Leaks auf eine direkte Verarbeitung von Audio hin. Das System berechnet neben dem Bildmaterial zeitgleich passende Stimmen in verschiedenen Sprachen. Die Lippenbewegungen der generierten Personen passen sich dem Ton an. In der Praxis muss das Modell allerdings erst beweisen, wie gut diese Funktionen arbeiten. Die benötigte Rechenleistung wirft Fragen bezüglich der wirtschaftlichen Nutzbarkeit für Endanwender auf. Anzeige Kontroverse um die aktuelle Version Die sehr frühen Leaks über den Nachfolger folgen kurz auf den Marktstart von Seedance 2.0. Diese Software erzeugt Clips auf einem Niveau, welches wir bisher nicht gesehen haben. Das Modell setzt Texteingaben sehr genau um und stellt flüssige Bewegungen physikalisch korrekt dar. Filmstudios kritisieren die hohe Produktionsqualität und fürchten Urheberrechtsverletzungen durch unlizenzierte Trainingsdaten. Sicherheitsexperten warnen zudem vor der täuschend echten Darstellung menschlicher Gesichter. ByteDance integriert als Schutzmaßnahme unsichtbare Metadaten in die Videodateien, damit Algorithmen die synthetischen Medien erkennen.

  • Microsoft VibeVoice generiert in einem Rutsch 90-Minuten-Podcasts mit 4 Sprechern

    Microsofts neues VibeVoice-System soll bis zu 90 Minuten lange Gespräche mit vier Sprecher:innen synthetisieren können. Ein neuartiger Speech Tokenizer macht die Langform-Generierung erst möglich.

    Der Artikel Microsoft VibeVoice generiert in einem Rutsch 90-Minuten-Podcasts mit 4 Sprechern erschien zuerst auf THE-DECODER.de.

  • Character.ai fesselt Jugendliche 80 Minuten am Tag an den Smartphone-Screen

    Laut Character.ai-CEO Karandeep Anand chattet der durchschnittliche Nutzer 80 Minuten am Tag mit fiktiven KI-Charakteren.

    Der Artikel Character.ai fesselt Jugendliche 80 Minuten am Tag an den Smartphone-Screen erschien zuerst auf THE-DECODER.de.