Schlagwort: Videos

  • Qwen3-VL analysiert zweistündige Videos und findet fast jedes Detail

    Wenige Monate nach der Veröffentlichung legt Alibaba nun den detaillierten technischen Bericht zu Qwen3-VL vor. Das offene, multimodale KI-Modell zeigt in Tests überlegene Leistungen bei mathematischen Aufgaben mit Bildern und kann stundenlange Videos analysieren.

    Der Artikel Qwen3-VL analysiert zweistündige Videos und findet fast jedes Detail erschien zuerst auf The Decoder.

  • Google schlägt Sora 2 in Benchmarks

    Veo 3 Startbild

    Nano Banana

    Kurzfassung

    Quellen

    Google hat Veo 3.1 veröffentlicht, ein Update für sein KI-Videomodell, das erstmals nativen Ton erzeugen kann.
    Neue Funktionen wie „Insert“ erlauben das nachträgliche Hinzufügen von Objekten in erstellte Videos.
    Die Neuerungen sind in Googles Bearbeitungstool „Flow“ integriert und sollen die kreative Kontrolle verbessern.
    Seit dem Start von Flow wurden mit der Technologie bereits über 275 Millionen Videos generiert.

    Google Blog
    Google Developers Blog
    Google DeepMind
    Google Cloud Vertex AI
    TechCrunch

    Google DeepMind hat mit Veo 3.1 ein bedeutendes Upgrade für sein KI-Videomodell veröffentlicht. Die neue Version verbessert nicht nur die Bildqualität und die Genauigkeit bei der Umsetzung von Texteingaben, sondern übertrifft in direkten Vergleichen auch den Vorgänger Veo 3 und Konkurrenzmodelle wie Sora 2. Besonders die gesteigerte Konsistenz und der filmische Realismus stehen im Fokus. Besser, schärfer und verständiger Der Sprung von Version 3 zu 3.1 zeigt sich vor allem in drei Kernbereichen. Veo 3.1 erzeugt Videos mit höherem Realismus, insbesondere bei Texturen und der Darstellung von physikalischen Eigenschaften. Zudem wurde die sogenannte Prompt-Treue verbessert, das Modell setzt also die Anweisungen des Nutzers genauer und mit weniger Fehlinterpretationen um. Die wohl wichtigste Neuerung ist die gesteigerte Konsistenz. Charaktere und Objekte behalten über mehrere Szenen hinweg ihr Aussehen und ihre Eigenschaften bei, ein entscheidender Faktor für erzählerische Inhalte. Frühere Schwächen, wie plötzliche Veränderungen im Hintergrund oder bei Gesichtern, wurden gezielt adressiert.

    Veo 3.1 dominiert im direkten Vergleich Google untermauert die Fortschritte mit neuen Benchmark-Ergebnissen. In von Menschen durchgeführten Side-by-Side-Bewertungen wurde Veo 3.1 klar vor Veo 3 und führenden Konkurrenzmodellen eingestuft. Bei der visuellen Qualität bevorzugten die Tester in 54,6 Prozent der Fälle Veo 3.1 gegenüber Veo 3. Noch deutlicher fällt das Ergebnis bei der Genauigkeit der Prompts aus. Hier sahen die menschlichen Bewerter Veo 3.1 in 59,8 Prozent der Vergleiche vorne. Diese Zahlen deuten darauf hin, dass Google nicht nur die Ästhetik, sondern vor allem das grundlegende Verständnis und die zuverlässige Umsetzung von kreativen Ideen verbessert hat. + Quelle: Google – Benchmark über mehrere Kategorien, Veo 3.1 vs andere Bildgeneratoren. Bearbeitung direkt in der Szene Ein weiterer entscheidender Fortschritt sind die neuen Bearbeitungswerkzeuge. Mit der „Insert“-Funktion können Nutzer jetzt beliebige Objekte nachträglich in eine generierte Szene einfügen. Die KI analysiert dabei selbstständig Lichtverhältnisse, Schatten und den Stil des Videos, um das neue Element nahtlos zu integrieren. Google hat zudem angekündigt, dass bald eine „Remove“-Funktion folgen wird. Diese soll es ermöglichen, unerwünschte Objekte oder Personen aus einem Clip zu entfernen, während die KI den Hintergrund intelligent rekonstruiert. Diese Werkzeuge heben die Technologie von einer reinen Generierungs-KI zu einem interaktiven Bearbeitungstool.

    Der Ton macht das Video Die größte funktionale Erweiterung von Veo 3.1 ist die native Audio-Generierung. Das Modell erzeugt nun passenden Ton direkt zusammen mit dem Videomaterial. Nutzer können in ihren Prompts nicht nur die visuellen Aspekte, sondern auch Geräusche, Dialoge oder die musikalische Stimmung beschreiben. Dieser integrierte Ansatz vereinfacht den Produktionsprozess erheblich, da keine separaten Werkzeuge für die Vertonung mehr nötig sind. Die KI synchronisiert den Ton mit den visuellen Ereignissen im Clip. Veo 3.1 ist ab sofort in Googles Videobearbeitungstool Flow sowie über die Gemini API und Vertex AI verfügbar.

  • Japan warnt OpenAI vor Urheberrechtsverstößen durch KI-Videomodell Sora 2

    Nach massenhaft geteilten Videos im Stil berühmter Anime hat Japans Regierung OpenAI aufgefordert, mit seinem Videomodell Sora 2 keine Urheberrechte zu verletzen. Politiker warnen vor rechtlichen Schritten, sollte das Unternehmen nicht reagieren.

    Der Artikel Japan warnt OpenAI vor Urheberrechtsverstößen durch KI-Videomodell Sora 2 erschien zuerst auf THE-DECODER.de.

  • OpenAI stellt Sora 2 vor

    Sam Altman bei einem Schwimmwettbewerb mit Sora 2

    OpenAI stellt Sora 2 vor Mehr Realismus, bessere Kontrolle und integrierter Ton. Das sind die bahnbrechenden Neuerungen der stärksten Video-KI der Welt. Kurzfassung | Andreas Becker, 01.10.25
    OpenAI Sora 2 | All-AI.de EINLEITUNG OpenAI hat mit Sora 2 sein neues Top-Modell zur Video- und Audioerstellung vorgestellt. Es ist physikalisch genauer, realistischer und besser steuerbar als frühere Systeme. Die KI stellt einen Quantensprung für die Videogenerierung dar und kann erstmals auch synchronisierte Dialoge und passende Soundeffekte erzeugen. OpenAI selbst spricht vom „GPT-3.5-Moment für Videos“ und unterstreicht damit die Tragweite dieser neuen Entwicklungsstufe. Zur Erinnerung: GPT-3.5 war der Moment, in dem ChatGPT erstmals in der Praxis richtig gut nutzbar war. NEWS Ein Sprung zur physikalischen Korrektheit Die Fortschritte von Sora 2 zeigen sich in der Fähigkeit, komplexe Szenarien zu generieren, die für bisherige Modelle unmöglich waren. Dazu gehören olympische Turnübungen oder ein Rückwärtssalto auf einem Paddleboard, bei dem die Dynamik von Auftrieb und Festigkeit korrekt modelliert wird. Der entscheidende Unterschied zu Vorgängern liegt im Umgang mit den Gesetzen der Physik. Frühere Modelle verformten oft die Realität, um eine Anweisung erfolgreich auszuführen. So konnte es passieren, dass ein Basketball, der den Korb verfehlte, unnatürlich ins Netz teleportiert wurde. Sora 2 verhält sich hier realistischer: Der Ball prallt physikalisch korrekt vom Korbbrett ab. Diese Fähigkeit, nicht nur Erfolge, sondern auch Misserfolge korrekt zu simulieren, ist eine entscheidende Eigenschaft für einen nützlichen Welten-Simulator. Selbst die Fehler, die das Modell noch macht, ähneln oft den Fehlern eines menschlichen Akteurs, den die KI intern zu modellieren scheint. Quelle: OpenAI – englische und deutsche Sprache Umfassende Kontrolle und audiovisuelles Erlebnis Neben dem Realismus wurde die Steuerbarkeit des Modells erheblich verbessert. Sora 2 kann komplizierte Anweisungen über mehrere Einstellungen hinweg befolgen und dabei den Zustand der simulierten Welt konsistent beibehalten. Die KI beherrscht zudem verschiedene Stilrichtungen und erzeugt überzeugende Ergebnisse in realistischen, filmischen oder auch Anime-Stilen. Das System ist als universelles Werkzeug zur Video- und Audio-Generierung konzipiert. Es ist in der Lage, anspruchsvolle Hintergrundgeräusche, Sprache und Soundeffekte mit einem hohen Grad an Realismus zu erstellen. Damit lassen sich komplette audiovisuelle Szenen aus einer einzigen Anweisung heraus erschaffen.

    Sora wird sozial: Die neue App OpenAI stellt die Technologie von Sora 2 über eine neue soziale iOS-App mit dem Namen „Sora“ zur Verfügung. Diese App ist darauf ausgelegt, dass Nutzer KI-generierte Videos nicht nur konsumieren, sondern vor allem selbst erstellen und mit anderen teilen. Die Einführung erfolgt zunächst nur auf Einladungsbasis in den USA und Kanada. Das Kernstück der App ist eine Funktion namens „Cameos“. Sie erlaubt es Nutzern, sich selbst oder Freunde in die KI-generierten Videos einzufügen. Dafür ist eine einmalige Video- und Audio-Aufnahme in der App nötig, um die Identität zu verifizieren und das digitale Abbild zu erstellen. OpenAI betont, dass die Nutzer die volle Kontrolle über ihr Abbild behalten und jederzeit den Zugriff darauf entziehen oder Videos mit ihrem Cameo entfernen können. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG OpenAI startet Sora 2, eine verbesserte KI-Videogenerierung mit realistischer Physik-Simulation und integriertem Audio. Die neue iOS-App „Sora“ funktioniert wie TikTok, zeigt aber ausschließlich KI-generierte Videos mit einem „Cameo“-Feature für personalisierte Inhalte. Die App ist zunächst nur in USA und Kanada verfügbar und erfordert eine Einladung, während umfangreiche Sicherheitsmaßnahmen Missbrauch verhindern sollen. OpenAI positioniert sich als direkter Konkurrent zu TikTok und anderen Social-Media-Plattformen in einem wachsenden Markt für KI-Video-Inhalte. QUELLEN WIRED OpenAI 9to5Mac The Verge Engadget

  • OpenAI startet Frontalangriff auf TikTok mit Sora 2

    Ein Nutzer schaut Sora 2

    OpenAI startet Frontalangriff auf TikTok mit Sora 2 Mit einer neuen App, in der nur KI-Videos existieren, will die Firma hinter ChatGPT den Social-Media-Markt umkrempeln. Kurzfassung | Andreas Becker, 30.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Stellt euch eine Social-Media-Plattform vor, die wie TikTok funktioniert, aber ganz ohne von Nutzern gefilmte Videos auskommt. OpenAI plant genau das mit einer neuen App und dem Video-Modell Sora 2. Die Anwendung generiert sämtliche Inhalte mithilfe künstlicher Intelligenz und könnte die Art und Weise, wie wir mit sozialen Medien interagieren, grundlegend verändern. Damit fordert das Unternehmen nicht nur etablierte Plattformen heraus, sondern wirft auch heikle Fragen zum Urheberrecht und zur digitalen Identität auf. NEWS Eine Welt aus rein synthetischen Videos Die Funktionsweise der App orientiert sich stark am bekannten Vorbild: Ein vertikaler Video-Feed lässt sich durch Wischen navigieren, Nutzer können Inhalte liken, kommentieren und neu mischen. Der entscheidende Unterschied liegt in der Erstellung der Inhalte. Anstatt eigene Clips hochzuladen, beschreiben die Nutzer ihre Ideen in Textform, woraufhin die KI Videos von maximal zehn Sekunden Länge erstellt. Ein personalisierter „Für Dich“-Feed sorgt dafür, dass die Nutzer passende künstliche Welten entdecken. Besonders neuartig ist die Funktion zur Identitätsverifizierung. Nutzer können ihr Gesicht authentifizieren lassen, damit ihr digitales Abbild in Videos verwendet werden kann. Andere Personen haben dann die Möglichkeit, diese verifizierte Erscheinung in ihren eigenen KI-generierten Clips zu verwenden und zu markieren. Als Schutzmaßnahme erhält der „Eigentümer“ des Gesichts eine Benachrichtigung, sobald sein Abbild in einem Video-Entwurf genutzt wird, noch bevor dieser veröffentlicht ist. Umstrittene Regeln und wachsender Wettbewerb Gleichzeitig zur Einführung der App verschärft OpenAI seine Strategie beim Urheberrecht. Das neue System hinter Sora 2 wird standardmäßig urheberrechtlich geschützte Werke für das Training und die Erstellung von Inhalten nutzen. Rechteinhaber, die dies nicht wünschen, müssen aktiv widersprechen. Diese Umkehr der Beweislast verlagert die Verantwortung auf die Urheber und spiegelt einen wachsenden Trend in der KI-Branche wider. Auch Meta und LinkedIn haben es bereits genau so gemacht. Der Vorstoß geschieht in einem Marktumfeld mit intensivem Wettbewerb. Meta hat kürzlich mit „Vibes“ einen eigenen Feed für KI-generierte Videos gestartet, und auch YouTube integriert Googles Videogenerator Veo 3 direkt in seine Kurzvideo-Sektion Shorts. Gleichzeitig könnte OpenAI von der unsicheren Zukunft TikToks in den USA profitieren, da ein möglicher Verkauf oder ein Verbot eine Lücke für eine Alternative ohne chinesische Verbindungen schaffen würde. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG OpenAI entwickelt eine TikTok-ähnliche Social-Media-App namens Sora 2, die ausschließlich KI-generierte Videos bis zu 10 Sekunden Länge anbietet. Die neue Copyright-Politik erfordert, dass Rechteinhaber aktiv widersprechen müssen, um ihre Inhalte von der KI-Nutzung auszuschließen. Der Launch erfolgt inmitten verschärfter Konkurrenz durch Meta’s Vibes-Feed und Googles Veo 3-Integration in YouTube Shorts. Sicherheits- und Regulierungsherausforderungen durch EU-KI-Verordnung und Kinderschutzbestimmungen prägen die Entwicklung. QUELLEN WIRED – OpenAI Is Preparing to Launch a Social App for AI-Generated Videos Engadget – OpenAI will reportedly release a TikTok-like social app alongside Sora 2 Wall Street Journal – OpenAI’s New Sora Video Generator to Require Copyright Holders to Opt Out Reuters – OpenAI’s new Sora video generator to require copyright holders to opt out TechCrunch – Meta launches ‚Vibes,‘ a short-form video feed of AI slop

  • Meta startet KI-Video-Feed „Vibes“ und will wohl Googles Gemini-Modelle nutzen

    Meta hat mit „Vibes“ einen neuen Feed für kurzformatige, KI-generierte Videos in der Meta-AI-App gestartet.

    Der Artikel Meta startet KI-Video-Feed „Vibes“ und will wohl Googles Gemini-Modelle nutzen erschien zuerst auf THE-DECODER.de.

  • Luma AI greift an: Ray3 ist da und lässt Sora alt aussehen

    Ein Mann surft auf einer Welle in New York

    Luma AI greift an: Ray3 ist da und lässt Sora alt aussehen Das neue KI-Videomodell erzeugt nicht nur erstmals HDR-Qualität, sondern kann auch denken. Was das für die Konkurrenz von OpenAI bedeutet. Kurzfassung | Andreas Becker, 19.09.25
    Luma | All-AI.de EINLEITUNG Die Konkurrenz im Bereich der KI-Videogenerierung schläft nicht. Während viele auf Sora von OpenAI blicken, prescht Luma AI mit Ray3 vor. Das neue Modell soll nicht nur Videos in bislang unerreichter HDR-Qualität erzeugen, sondern auch komplexe Anweisungen verstehen und über seine eigenen Ergebnisse nachdenken können. Ein entscheidender Schritt, der generative Videos aus der Experimentierphase in professionelle Produktionsabläufe heben könnte und durch eine Partnerschaft mit Adobe zusätzlich an Gewicht gewinnt. NEWS HDR-Qualität für professionelle Ansprüche Ein zentrales Merkmal von Ray3 ist die Fähigkeit, Videos nativ in High Dynamic Range (HDR) zu erzeugen. Das bedeutet einen deutlich größeren Farb- und Helligkeitsumfang, was zu realistischeren und lebendigeren Bildern führt, wie man sie sonst nur von hochwertigen Kinokameras kennt. Das Modell unterstützt dabei professionelle Farbtiefen von 10, 12 und sogar 16 Bit. Für Kreativschaffende ist das ein entscheidender Vorteil, da die generierten Inhalte nicht mehr nur wie nette Experimente aussehen, sondern sich für ernsthafte Produktionen eignen. Um die Integration in bestehende Arbeitsprozesse zu erleichtern, können die Videos als EXR-Dateien exportiert werden. Dieses Format ist in der Film- und Effektindustrie Standard und erlaubt eine nahtlose Weiterverarbeitung in Programmen für Farbkorrektur und visuelle Effekte. Luma AI geht sogar noch einen Schritt weiter und ermöglicht es, herkömmliche SDR-Videos (Standard Dynamic Range) in HDR umzuwandeln. Die sofortige Verfügbarkeit von Ray3 in Adobes Kreativ-App Firefly unterstreicht den Anspruch, ein Werkzeug für Profis zu sein. Quelle: Luma Eine KI, die mitdenkt Luma AI beschreibt die zweite große Neuerung als „Reasoning“-Fähigkeit. Ray3 soll nicht mehr nur stur einen Textbefehl in Pixel übersetzen, sondern die Anweisung des Nutzers wirklich verstehen. Das Modell kann demnach komplexe Szenen planen, eigene Entwürfe bewerten und bei unzureichender Qualität selbstständig neue Versuche starten, bis das Ergebnis den Vorstellungen entspricht. Dieser iterative Prozess, der einem menschlichen kreativen Vorgehen ähnelt, soll die Qualität und Kohärenz der Ergebnisse deutlich steigern. Diese neue Intelligenz ermöglicht auch erweiterte Steuerungsmöglichkeiten. Nutzer können durch einfache Zeichnungen oder Kritzeleien direkt auf einem Bild Bewegungen, Objekte und sogar die Kameraführung festlegen, ohne komplexe Prompts formulieren zu müssen. Ergänzt wird dies durch einen „Draft Mode“, der fünfmal schnellere und günstigere Entwürfe für die Ideenfindung ermöglicht. Ist der passende Entwurf gefunden, kann dieser mit einer „Hi-Fi“-Funktion in voller 4K-HDR-Qualität gerendert werden. Ab sofort ist Ray3 kostenlos in der Anwendung Dream Machine von Luma AI verfügbar. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG
    Luma AI hat sein neues KI-Videomodell Ray3 veröffentlicht, das als erstes generative Videos in professioneller HDR-Qualität erzeugen kann.
    Eine zentrale Neuerung ist die „Reasoning“-Fähigkeit, die es dem Modell ermöglicht, komplexe Anweisungen zu verstehen und eigene Ergebnisse selbstständig zu verbessern.
    Ray3 unterstützt professionelle Workflows durch den Export von EXR-Dateien und ist durch eine Partnerschaft direkt in Adobe Firefly integriert.
    Das Modell ist ab sofort kostenlos in Luma AIs Anwendung Dream Machine verfügbar und bietet zudem einen schnellen Entwurfsmodus.
    QUELLEN
    slashCAM
    Luma AI
    Business Wire
    Adobe Blog

  • Revolution bei YouTube Shorts

    Youtube Studio KI

    Revolution bei YouTube Shorts Text-zu-Video mit Ton, automatischer Videoschnitt und KI-generierte Songs – die neuen Features von „Made on YouTube 2025“ im Detail erklärt. Kurzfassung | Andreas Becker, 17.09.25
    Youtube | All-AI.de EINLEITUNG Die Flut an KI-Werkzeugen für Kreative schwillt weiter an und YouTube gießt nun kräftig Öl ins Feuer. Auf dem „Made on YouTube“-Event präsentierte die Plattform eine Reihe neuer Funktionen, die auf generativer KI basieren. Das erklärte Ziel: die Erstellung von Inhalten soll einfacher und spielerischer werden. Für Creator bedeutet das vor allem eines: Weniger Zeit im Schnittprogramm und mehr Raum für Ideen, die per Texteingabe oder Knopfdruck zur Realität werden sollen. NEWS Vom Text zum Video mit Ton Das Herzstück der Neuerungen ist „Veo 3 Fast“, eine speziell für YouTube angepasste Version von Google DeepMinds leistungsstärkstem Videomodell. Direkt in der YouTube-App soll es möglich sein, aus einer einfachen Textbeschreibung kurze Videoclips für Shorts zu generieren – und das erstmals inklusive passender Tonspur. Die KI erstellt dabei Videos mit einer Auflösung von 480p, optimiert für eine schnelle Generierung direkt auf dem Smartphone. Zum Start ist die Funktion kostenlos in den USA, Großbritannien, Kanada, Australien und Neuseeland verfügbar. In den kommenden Monaten plant YouTube, die Fähigkeiten von Veo weiter auszubauen. So sollen Nutzer Fotos zum Leben erwecken können, indem sie die Bewegung aus einem anderen Video übertragen. Auch die komplette Stilisierung eines Videos, etwa im Pop-Art- oder Origami-Look, wird per Fingertipp möglich sein. Zudem können per Textbefehl Objekte oder Effekte in eine Szene eingefügt werden, sei es eine Gummiente im Morgenkaffee oder ein riesiger Krake, der ein Schiff im Hafen angreift. + Quelle: Youtube KI als persönlicher Schnitt-Assistent Wer kennt es nicht: Man hat eine Speicherkarte voller Rohmaterial, aber der leere Bildschirm im Schnittprogramm wirkt lähmend. Genau hier setzt die Funktion „Edit with AI“ an. Sie soll die mühsame Vorsortierung und den ersten Rohschnitt komplett übernehmen. Das Werkzeug analysiert das aufgenommene Material, sucht die besten Momente heraus und fügt sie zu einem ersten Entwurf zusammen – inklusive Musik, Übergängen und sogar einem Voiceover, das auf die Ereignisse im Video reagiert. Anfänglich wird der KI-Cutter in den Sprachen Englisch und Hindi verfügbar sein und sowohl in Shorts als auch in der separaten „YouTube Create“-App experimentell eingeführt. Die Idee ist, dem Creator einen soliden Ausgangspunkt zu liefern, sodass er sich direkt auf die kreative Feinarbeit und die persönliche Note konzentrieren kann, anstatt Stunden mit dem Sichten von Material zu verbringen. + Quelle: Youtube Jeder Dialog wird zum Sommerhit Die wohl verspielteste Neuerung ist das „Speech to Song“-Werkzeug. Es ermöglicht, Dialogzeilen aus qualifizierten Videos in eingängige Soundtracks zu verwandeln. Eine lustige Phrase oder ein markantes Zitat kann so zur Grundlage für einen neuen Song für den nächsten Short werden. Im Hintergrund arbeitet „Lyria 2“, ein fortschrittliches KI-Musikmodell von Google DeepMind, das den Dialog in eine musikalische Komposition umwandelt. Nutzer können dabei die Stimmung des Songs selbst bestimmen, etwa „chillig“, „tanzbar“ oder „lustig“. YouTube stellt sicher, dass der ursprüngliche Creator des genutzten Videomaterials stets als Quelle genannt wird. Wie bei allen KI-generierten Inhalten auf der Plattform kommen auch hier das digitale Wasserzeichen „SynthID“ und spezielle Kennzeichnungen zum Einsatz, um für Transparenz zu sorgen. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG
    YouTube hat auf seinem „Made on YouTube“-Event drei neue, leistungsstarke KI-Werkzeuge für Creator vorgestellt.
    Mit „Veo 3 Fast“ können Nutzer aus einfachen Textbefehlen kurze Videos inklusive Tonspur für YouTube Shorts erstellen.
    Die Funktion „Edit with AI“ analysiert Rohmaterial und schneidet automatisch einen ersten Entwurf mit Musik und Übergängen.
    Das „Speech to Song“-Tool ermöglicht es, gesprochene Dialoge aus Videos in einzigartige, KI-generierte Songs zu verwandeln.
    QUELLEN
    YouTube Official Blog
    TechCrunch
    The Verge
    Golem.de

  • Videos schneiden mit KI? Google Vids jetzt für jeden nutzbar

    Google Edit Oberfläche

    Videos schneiden mit KI? Google Vids jetzt für jeden nutzbar Virtuelle Sprecher, Animationen und einfache Bedienung – reicht das für den großen Video-Coup? Kurzfassung | Andreas Becker, 28.08.25
    Google | All-AI.de EINLEITUNG Google öffnet sein Videotool Vids für alle Nutzer – kostenlos und direkt im Browser. Wer Videos schneiden, animieren oder vertonen will, kann das jetzt mit einfachen Vorlagen und KI-Hilfe erledigen, ohne ein Abo abzuschließen. Gleichzeitig bringt Google neue Funktionen für die Bezahlversion: Von automatisch erzeugten Clips bis hin zu virtuellen Sprechern mit echtem Lipsync. Noch im Herbst folgen weitere Updates. NEWS Kostenloser Einstieg ohne Vorkenntnisse Die Basisversion von Google Vids richtet sich an alle, die schnell und unkompliziert eigene Videos erstellen wollen. Das Ganze funktioniert ähnlich wie eine Präsentation: Vorlage wählen, Bilder, Texte oder Ton hinzufügen, Übergänge einbauen – fertig. Alles läuft direkt im Browser, eine zusätzliche Software ist nicht nötig. Auch bestehende Präsentationen lassen sich in Videos umwandeln. Am Ende kann das fertige Video heruntergeladen oder direkt per Link geteilt werden. Die Bedienung erinnert an Google Slides. Wer sich dort zurechtfindet, wird auch mit Vids gut klarkommen. Die kostenlose Version ist damit ideal für Einladungen, Tutorials oder Social-Media-Clips. Besonders praktisch: Mehrere Nutzer können gleichzeitig an einem Projekt arbeiten – ideal für Teams oder Schulprojekte.

    Mehr Funktionen mit Abo – aber nicht zwingend nötig Die spannenderen KI-Funktionen bleiben den kostenpflichtigen Versionen vorbehalten, etwa für Nutzer mit Google Workspace oder bestimmten KI-Abos. Wer zahlt, bekommt Zugriff auf eine automatische Inhaltsplanung, Vorschläge für passende Szenen und sogar sprechende Avatare, die ein vorgegebenes Skript flüssig vorlesen. Trotzdem lässt sich auch mit der kostenlosen Version schon einiges umsetzen – gerade für einfache Projekte. Neu in den Bezahlversionen ist zum Beispiel ein Tool, das aus einem einzelnen Foto ein acht Sekunden langes Video mit Ton macht. Ideal, wenn schnell ein animierter Teaser oder ein kurzer Clip für Social Media gebraucht wird. Google nutzt dafür das hauseigene Modell Veo 3, das aus Textanweisungen passende Animationen und Geräusche generiert.

    Virtuelle Sprecher und automatische Nachbearbeitung Eine weitere Neuerung sind virtuelle Avatare, die Texte realistisch sprechen können – mit passender Lippenbewegung und Stimme. Dafür setzt Google auf Technik von DeepMind. Diese Funktion eignet sich besonders für Schulungsvideos, Produktdemos oder Hilfeseiten, bei denen kein echter Sprecher zur Verfügung steht. Zusätzlich hilft ein neues Transkript-Werkzeug dabei, eigene Aufnahmen zu optimieren. Es entfernt automatisch Füllwörter oder längere Pausen und spart damit Zeit bei der Nachbearbeitung. In den kommenden Wochen soll außerdem eine automatische Rauschunterdrückung dazukommen – ebenfalls per KI. Für Herbst sind weitere Verbesserungen geplant: Zum Beispiel neue Videoformate wie Hochkant oder Quadrat, verschiedene Hintergründe und Filter. Damit wird Google Vids vor allem für Tiktok, Instagram und YouTube Shorts noch interessanter. Eine eigene Videoreihe mit Erklärungen zu allen Funktionen („Vids on Vids“) hilft beim Einstieg. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Google bietet sein Videobearbeitungstool Vids jetzt kostenlos für alle an – direkt im Browser und ohne Abo.
    Die Basisversion eignet sich ideal für einfache Clips und bietet Teamarbeit, Vorlagen und einfache Bedienung.
    Mit der Bezahlversion kommen KI-Features wie sprechende Avatare, automatische Videoerstellung und Nachbearbeitung hinzu.
    Weitere Updates im Herbst sollen Vids für Plattformen wie TikTok oder YouTube Shorts noch attraktiver machen.
    QUELLEN
    Google Workspace Blog
    The Keyword (Google)
    9to5Google
    The Verge
    Notebookcheck

  • Hunyuan GameCraft wandelt Bilder in interaktive Gaming-Videos um

    Tencent hat mit Hunyuan-GameCraft ein neues KI-Framework vorgestellt, das aus einzelnen Bildern interaktive Videos erzeugt.

    Der Artikel Hunyuan GameCraft wandelt Bilder in interaktive Gaming-Videos um erschien zuerst auf THE-DECODER.de.