Schlagwort: Videos

  • Netflix-KI-Framework VOID entfernt Objekte aus Videos und passt physikalische Effekte an

    Netflix hat ein Open-Source-KI-System veröffentlicht, das Objekte aus Videos entfernt und dabei auch physikalische Folgen wie Kollisionen korrigiert.

    Der Artikel Netflix-KI-Framework VOID entfernt Objekte aus Videos und passt physikalische Effekte an erschien zuerst auf The Decoder.

  • EU verbietet vollständig KI-generierte Bilder

    EU, echte Bilder und KI Bilder

    Nano Banana

    Kurzfassung

    Quellen

    Die wichtigsten EU-Institutionen verbieten ihren Presseteams die Nutzung vollständig KI-generierter Bilder und Videos.
    KI-Modelle dürfen in Brüssel nur noch zur qualitativen Aufwertung von echtem Bildmaterial zum Einsatz kommen.
    Experten kritisieren den Schritt und fordern stattdessen einen transparenten Umgang gemäß dem europäischen AI Act.

    EU staff banned from using AI-generated content in official communications

    THE DECODER – EU-Institutionen verbieten laut Bericht KI-generierte Bilder und Videos in offizieller Kommunikation

    Techmeme auf X – The European Union’s main institutions have banned staff from using fully AI-generated videos and images in official communications

    Die Europäische Union schiebt synthetischen Medien in der Öffentlichkeitsarbeit einen Riegel vor. Kommission, Parlament und Rat untersagen ihren Teams ab sofort den Einsatz vollständig KI-generierter Bilder und Videos. Politico machte diese neue Direktive öffentlich. Fokus auf echte Aufnahmen Die Verantwortlichen in Brüssel setzen auf authentisches Bildmaterial, um das Vertrauen der Bürger zu erhalten. KI-Modelle dürfen lediglich bestehende Fotos oder Clips aufwerten. Mitarbeiter können die Technologie weiterhin nutzen, um die Auflösung von Bildern zu verbessern oder unerwünschtes Bildrauschen zu entfernen. Ein kompletter Ersatz der Realität durch Bildgeneratoren bleibt jedoch untersagt. Das Europäische Parlament mahnt seine Angestellten explizit zu besonderer Wachsamkeit gegenüber den Risiken generativer KI-Modelle. Anzeige Fachwelt übt Kritik Branchenkenner bewerten diesen strikten Kurs negativ. Walter Pasquarelli, Forscher an der Universität Cambridge, fordert einen transparenten Umgang anstelle eines Verbots. »Verantwortungsvolle Nutzung schlägt Abstinenz«, ordnet der Experte die Entscheidung ein. Analysten betonen den Widerspruch zur aktuellen Gesetzgebung. Die EU vergibt laut den Fachleuten die Möglichkeit, die Vorgaben ihres eigenen AI Acts in der Praxis zu demonstrieren. Mit sichtbaren Wasserzeichen und klaren Kennzeichnungen könnten die Behörden der Öffentlichkeit vorleben, wie ein sicherer Umgang mit synthetischen Inhalten aussehen sollte. Politiker experimentieren mit Modellen Außerhalb der EU-Behörden binden Spitzenpolitiker synthetische Bilder längst in ihre Strategien ein. In den USA veröffentlicht Donald Trump regelmäßig KI-generierte Inhalte auf seiner Plattform Truth Social. Auch europäische Staatsoberhäupter testen die Technologie aktiv. Bundeskanzler Friedrich Merz publizierte ein KI-generiertes Tanzvideo auf Instagram, um auf diese Weise über mögliche Gefahren aufzuklären. Ungarns Ministerpräsident nutzt Deepfakes hingegen gezielt für politische Attacken. Die EU-Institutionen grenzen sich von dieser Praxis ab und verzichten in der offiziellen Kommunikation weiterhin konsequent auf generierte Medien.

  • Helios: Bytedance-Forschungsmodell generiert KI-Videos so schnell, wie sie abgespielt werden

    Gelber Sportwagen auf Waldstraße mit Overlay-Text über KI-Videoerzeugung durch Helios

    Helios soll als erstes 14B-Videomodell 19,5 FPS auf einer einzelnen GPU erreichen und minutenlange Videos erzeugen. Code und Modell sind offen verfügbar.

    Der Artikel Helios: Bytedance-Forschungsmodell generiert KI-Videos so schnell, wie sie abgespielt werden erschien zuerst auf The Decoder.

  • Seedance 3.0 Leaks: KI-Videos mit zehn Minuten Länge?

    Eine Filmrolle mit mathematischen Formeln

    Nano Banana

    Kurzfassung

    Quellen

    Geleakte Dokumente zeigen erste Details zum kommenden KI-Videogenerator Seedance 3.0 von ByteDance.
    Das Modell soll durchgängig konsistente Videos mit einer Länge von bis zu zehn Minuten erzeugen.
    Eine neue Vektorraum-Architektur speichert dafür Figuren und Umgebungen ab, um visuelle Fehler bei Szenenwechseln zu vermeiden.
    Zudem deuten die Berichte auf eine direkte Integration von lippensynchroner, mehrsprachiger Sprachausgabe hin.

    Auf X: Seedance 3.0 Leak

    Während Seedance 2.0 aktuell den Markt für KI-generierte Videos dominiert, zeigen Leaks bereits interessante Informationen zum Nachfolger. Seedance 3.0 soll laut unbestätigten Berichten zusammenhängende Clips mit einer Spieldauer von über zehn Minuten erzeugen. Architektur für lange Laufzeiten Die Verlängerung der Generierungsdauer fordert enorm viel Rechenleistung. Bei langen Laufzeiten verlieren visuelle Elemente in generierten Videos oft ihre Form. ByteDance testet laut Insidern dafür eine neue Architektur namens „Narrative Memory Chain“. Diese Technik legt spezifische Merkmale von Figuren und Umgebungen in einem persistenten Vektorraum ab. Ein solcher Vektorraum wandelt Bildeigenschaften in mehrdimensionale mathematische Koordinaten um. Das System berechnet räumliche und zeitliche Zusammenhänge dadurch exakter. Das Modell ruft diese Referenzdaten während der gesamten Videoerstellung kontinuierlich ab. Charaktere und physikalische Regeln bleiben so auch bei dynamischen Szenenwechseln über zehn Minuten hinweg erhalten.

    Twitter Beitrag – Cookies links unten aktivieren.

    Seedance 3.0 specs just leaked. If this is accurate, this isn’t another incremental AI video upgrade. It’s a structural shock to Hollywood. • 10 to 18 minute coherent films in one pass• Persistent narrative memory across scenes• Native multi language voice with emotional… https://t.co/TSo0iZlPLd — VraserX e/acc (@VraserX) February 14, 2026 Integrierte Audiosynchronisation Zusätzlich deuten die Leaks auf eine direkte Verarbeitung von Audio hin. Das System berechnet neben dem Bildmaterial zeitgleich passende Stimmen in verschiedenen Sprachen. Die Lippenbewegungen der generierten Personen passen sich dem Ton an. In der Praxis muss das Modell allerdings erst beweisen, wie gut diese Funktionen arbeiten. Die benötigte Rechenleistung wirft Fragen bezüglich der wirtschaftlichen Nutzbarkeit für Endanwender auf. Anzeige Kontroverse um die aktuelle Version Die sehr frühen Leaks über den Nachfolger folgen kurz auf den Marktstart von Seedance 2.0. Diese Software erzeugt Clips auf einem Niveau, welches wir bisher nicht gesehen haben. Das Modell setzt Texteingaben sehr genau um und stellt flüssige Bewegungen physikalisch korrekt dar. Filmstudios kritisieren die hohe Produktionsqualität und fürchten Urheberrechtsverletzungen durch unlizenzierte Trainingsdaten. Sicherheitsexperten warnen zudem vor der täuschend echten Darstellung menschlicher Gesichter. ByteDance integriert als Schutzmaßnahme unsichtbare Metadaten in die Videodateien, damit Algorithmen die synthetischen Medien erkennen.

  • Higgsfield Test 2026: Viel Glanz, aber auch Schatten

    Oktopus malt ein Higgsfield Logo

    Nano Banana

    Inhaltsverzeichnis

    Ressourcen

    1. Steckbrief & Daten
    2. Hauptfunktionen
    3. Vorteile & Nachteile
    4. Praxis Usecases
    5. Preise & Abos
    6. Alternativen & Vergleich
    7. Anbieter Informationen
    8. Fazit & Bewertung
    9. Häufige Fragen (FAQ)

    Zur offiziellen Webseite
    Dokumentation / Handbuch
    Community (Discord/Reddit)

    Der Markt für generative KI ist im Jahr 2026 unübersichtlicher denn je. Wer hochwertige Inhalte produziert, jongliert oft mit fünf verschiedenen Abos: Sora 2 für realistische Videos, Nano Banana für präzise Bildkompositionen und KLING 3.0 für kinoreife Kamerafahrten. Higgsfield tritt an, um dieses Chaos zu beenden. Die Plattform positioniert sich nicht nur als weiteres Tool, sondern als Multiplattform, welche die mächtigsten Modelle unter einer intuitiven Oberfläche vereint. Mit einer Bewertung von über 1,3 Milliarden Dollar und Alex Mashrabov (ehemals Head of GenAI bei Snap) an der Spitze, hat sich Higgsfield vom Geheimtipp zum „Schweizer Taschenmesser“ für Content Creator entwickelt. Der Test zeigt, ob die Plattform hält, was der Hype verspricht.

    Higgsfield AI
    Bilder & Video KI

    8.0
    Score

    Preis-Modell
    Abo-Modelle

    Plattform
    Browser/Webapp

    Sprache
    Englisch

    Status
    Etabliert, häufige Updates

    Gratis Testen?
    Ja, Free-Plan

    Letztes Update
    Feb. 2026

    Tool ausprobieren, Rabatt prüfen

    Klick führt direkt zum Anbieter, Affliatelink

    02.

    Hauptfunktionen
    Higgsfield bündelt die Rechenpower diverser Marktführer und ergänzt diese durch eigene, spezialisierte Workflows. Der Fokus liegt klar auf der praktischen Anwendbarkeit für Social Media und Marketing. Anzeige 2.1 Bilder mit KI erstellen: Anstatt den Nutzer auf ein Modell zu beschränken, bietet Higgsfield Zugriff auf die aktuelle Elite der Bildgenerierung. Nutzer wählen flexibel zwischen Flux klein für schnelle Entwürfe, GPT-1.5 für komplexe Textverständnisse oder Nano Banana Pro für fotorealistische Ergebnisse. Auch exotischere Modelle wie Z-Image, Kling Image und Wan Image stehen zur Verfügung. Dies ermöglicht es, restriktive Filter großer Anbieter bei Bedarf durch liberalere Modelle wie Seedream 4.5 zu umgehen. + Quelle: Higgsfield 2.2 Video mit KI erstellen: Im Videobereich setzt sich das Prinzip fort. Die Plattform integriert Schwergewichte wie OpenAI’s Sora 2 und Google’s Veo 3.1. Für spezifische Stile stehen Wan, Kling und Minimax bereit. Neu hinzugekommen ist die Integration von Grok Imagine. Der Nutzer entscheidet pro Clip, ob er die physikalische Korrektheit von Sora oder die künstlerische Freiheit von Seedance benötigt. + Quelle: Higgsfield 2.3 Upscaling von Bildern und Videos: Generierte Inhalte lassen sich direkt auf der Plattform aufwerten. Higgsfield integriert führende Upscaler-Technologien wie Topaz, um Videos und Bilder auf 4K oder 8K hochzurechnen, ohne Artefakte zu erzeugen. 2.4 Spezielle Apps und Workflows Abseits der reinen Text-zu-Image/Video-Generierung bietet Higgsfield spezialisierte Arbeitsumgebungen an. Diese unterteilen sich in spezifische Module, um unterschiedliche Anforderungen von der schnellen Social-Media-Produktion bis hin zum professionellen Storytelling abzudecken. Zwei möchte ich näher ausführen. + Quelle: Higgsfield 2.4.1 Motion Control Bei KI-Videos war Bewegung lange Zeit kaum steuerbar. Mit Motion Control kann man ein Video mit einer bestimmten Bewegung hochladen und diese auf den eigenen Charakter übertragen. Das heißt, man lädt ein Video mit Bewegung und ein Bild einer Person hoch und schon macht das „Bild” genau die gleiche Bewegung wie im Originalvideo. Das ist sehr cool und die Videos gehen auch reihenweise viral. Zusätzlich kann man, wie auf dem Bild zu sehen ist, aber auch zwischen vorgefertigten Bewegungen auswählen. Dort werden aktuelle virale Trends schnell hinzugefügt, sodass man seinen Charakter bzw. sich selbst entsprechend tanzen lassen kann. Auch wenn man es selbst nicht kann … + Quelle: Higgsfield 2.4.2 Cinema Studio Videos zu erstellen war noch nie so einfach. Neben dem Prompt und einem Start- und Endframe kann das Video durch verschiedene Buttons sehr gezielt erstellt werden. Unter „Movements” wählt man die Bewegung, z. B. „Tilt up” oder „Zoom out”, und als Format kann man alles zwischen 21:9 und 9:16 wählen. Das ist perfekt für Kino, YouTube, aber auch TikTok. Man kann Audio generieren lassen, Slow Motion aktivieren und bis zu vier Videos gleichzeitig erstellen. Mit anderen Worten: Auch ohne Erfahrung lassen sich sehr gute Videos erstellen. + Quelle: Higgsfield
    03.

    Vorteile & Nachteile

    Das gefällt uns

    Sehr viele Modelle zur Auswahl
    Neue Modelle meist ab Tag 1
    Sehr einfache Bedienung
    Fast nie sichtbare Wasserzeichen
    Viele Addons wie VibeMotion, AI Influencer usw.

    Das nervt noch

    Sehr agressives Marketing
    Support quasi nur per KI-Mitarbeiter
    Unlimited-Auflistungen irreführend
    Unlimited Generierungen dauern lange

    3.1 Größter Vorteil – Einfachheit Im Gegensatz zu vielen Chat-Oberflächen kann man hier mit wenigen Klicks und vielen Voreinstellungen zu sehr guten Ergebnissen kommen. Gleichzeitig wird fast immer auf ein sichtbares Wasserzeichen verzichtet. Dadurch können Grafiken und Videos ohne weitere Bearbeitung direkt verwendet werden. 3.2 Größter Nachteil – Marketing und Support Egal, wohin man schaut: Überall sieht man sehr aggressive Werbung von Higgsfield, die häufig auch sehr grenzwertig ist und polarisiert. Gerade auf der Plattform X übertreibt es Higgsfield regelmäßig und versucht, durch Free-Credits zum Mitmachen zu verleiten. Selbst mit aktivem Abo sieht man auf der eigenen Webseite immer wieder Werbeeinblendungen. Das wirkt leider schnell unseriös und ich kenne das eher von Casino-Seiten. Gleichzeitig ist aber nicht immer ganz klar, für welches Abo man sich entscheidet und was wirklich enthalten ist. Vor dem Abschluss sollte man prüfen, ob man nur für einen Monat und nicht für ein Jahr abschließt, und sich auch nicht von den „unlimited” Angeboten blenden lassen. Dazu später unter „Abo” mehr. Und da wir gerade dabei sind: Laut Foren und Bewertungen gibt es auch immer wieder Probleme mit dem Support. Sowohl im Discord-Server als auch per E-Mail antwortet quasi immer eine KI. Bei Problemen oder einem Missklick ist es schwierig, einen echten Menschen zu erreichen. Insgesamt ist das auch der Grund für zwei Punktabzüge in der Gesamtwertung. Anzeige
    04.

    Coole Usecases

    Die Herausforderung
    Teure Stock-Videos kaufen

    Gute Clips bei Adobe Stock oder Shutterstock kosten oft 50€+ pro Stück und wirken oft generisch.

    Die Lösung
    Eigene Clips in 2 Minuten

    Mit Higgsfield erstellst du passgenaue Szenen aus einem simplen Text-Prompt oder einem eigenen Foto. Kosten minimal und beliebig verwendbar.

    Die Herausforderung
    Charakter ändert das Gesicht

    In den meisten KI-Bildern und KI-Videos ändern sich Charaktere mit jeder Generation.

    Die Lösung
    Konsistente Charaktere

    Bei vielen Funktionen und Modellen einfach ein „Reference Image“ auswählen. Ergebnis: Der Charakter sieht nahezu identisch aus.

    Die Herausforderung
    Auflösung ist zu niedrig

    Du möchtest ein spezielles Modell verwenden, welches nur eine niedrige Auflösung unterstützt.

    Die Lösung
    Upscale Funktion nutzen

    Higgsfield unterstützt mit Topaz den besten Upscaler. Einfach ein Bild hochladen und auf Upscale klicken.

    05.
    Preise & Abos
    Higgsfield setzt auf ein Freemium-Modell, um die Einstiegshürde niedrig zu halten. Zusätzlich gibt es vier verschiedene Abo-Modelle. ANZEIGE – Aktuelle Rabatte checken

    Free

    Nutzer können viele Modelle kostenlos ausprobieren. Nachteil: Gedrosselte Geschwindigkeit und starke Begrenzung. Täglich gibt es kostenlose Credits beim Login.

    Basic

    Perfekt für Wenig-Nutzer, die Zugriff auf alle Bildgeneratoren brauchen. Gut zum Ausprobieren. Für Videogeneration kaum geeignet.

    Pro

    4x mehr Credits als Basic. Zugang zu Apps wie AI Influencer Studio. Highlight: Nano-Banana-Modell (Non-Pro) ist unlimitiert nutzbar. Erste Video-Einblicke möglich.

    Ultimate

    Mein Favorit: Doppelte Credits vom Pro-Plan. Fast jedes Bildmodell (auch Nano Banana Pro bis 2k) unlimitiert. Dazu kann man eine gute Anzahl an Videos erstellen.

    Creator

    5x mehr Credits, nur für Power-User im Video-Bereich sinnvoll. Hier unbedingt auf Jahres-Angebote warten, diese haben immer mal wieder einen Rabatt von über 50%!

    Insider-Wissen: Was bedeutet „Unlimited“?

    Eine Sache, die man kritisieren kann, ist die aggressive Werbung. „Unlimitiert generieren“ hört sich top an, aber Vorsicht: Oft gilt das (je nach Modell) nur für eine begrenzte Zeit. Hier sollte man immer genau nachprüfen. Häufig ist es erst sichtbar nach einem Klick auf das Fragezeichen.

    Zudem läuft „Unlimited“ oft mit niedriger Priorität (langsamer) und muss manuell ausgewählt werden. Features wie Batch-Erstellung (4 Bilder gleichzeitig) oder 4K-Auflösung sind im Unlimited-Modus oft gesperrt. Trotzdem ist die Funktion im Alltag sehr nützlich, wenn man Zeit hat.

    Mein Tipp: Bevor man ein Abo abschließt, zweimal überprüfen ob alles korrekt ist.

    06.
    Alternativen & Vergleich

    Selbstverständlich gibt es auch einige Alternativen zu „Higgsfield”. Eine ähnliche Multiplattform ist OpenArt, die einen etwas seriöseren Eindruck macht und nicht ganz so aggressiv mit Preisen wirbt. Wer bereits ein Abo bei ChatGPT, Gemini oder Adobe hat, kann damit ebenfalls viel abdecken.

    OpenArt
    Top Konkurrent

    Gerade im Bereich der Bild-KI hat OpenArt deutlich mehr Modelle zu bieten und überzeugt auch bei den Funktionen. Hier sehe ich OpenArt sogar als besser an.

    Im Bereich Video-KI und Apps in Verbindung mit Social Media ist jedoch aktuell Higgsfield die klare Nummer eins.

    All-AI Urteil: Selbes Niveau

    ChatGPT & Gemini
    Basis Lösung

    Wer bereits ein Abo bei OpenAI oder Google hat, kann dort ohne Zusatzkosten Bilder erstellen. Nachteile sind die schwächere Benutzeroberfläche, weniger Optionen und die Beschränkung auf ein Modell.

    All-AI Urteil: Gut für den Start

    Adobe Firefly
    Für Adobe User

    Mittlerweile eine starke Alternative mit viel Auswahl. Lohnt sich preislich vor allem, wenn man bereits die Creative Cloud nutzt. Die Integration in Photoshop ist top, als Standalone-Tool aber teuer.

    All-AI Urteil: Top Qualität & UI

    Anzeige
    07.
    Anbieter Informationen

    Hauptsitz
    San Francisco, USA

    Gegründet
    2023

    Bewertung

    1,3 Milliarden $
    VC Backed

    Wer steckt dahinter?
    Higgsfield AI wurde von Alex Mashrabov gegründet, dem ehemaligen Leiter der Generative AI Abteilung bei Snap (Snapchat). Das Team besteht aus Experten führender Tech-Firmen.

    Einschätzung:
    Mit Menlo Ventures (investierten auch in Anthropic/Claude) als Geldgeber im Rücken, verfügt das Unternehmen über solide finanzielle Mittel und technisches Know-how. Entsprechend sollte man von einem soliden Unternehmen ausgehen, auch wenn das Marketing einen anderen Eindruck hinterlässt.

    08.
    Fazit & Bewertung

    Das All-AI Urteil

    Wer eine Multiplattform sucht, die im Bereich Video-KI und Social Media überzeugt, macht mit Higgsfield nichts verkehrt. Die Plattform ist aber auch für Wenig-Nutzer interessant, die aus der vollen Bandbreite der Modelle auswählen möchten.

    Ausprobieren und Rabatt sichern*

    8.0
    von 10

    Empfehlung

    09.
    FAQ – die wichtigsten Fragen

    Hier versuchen wir, die wichtigsten und häufigsten Fragen zu „Higgsfield” zu beantworten. Sollte noch etwas unklar sein, könnt ihr uns gerne per E-Mail oder über die sozialen Medien kontaktieren.
    .faq-accordion {
    max-width: 100%;
    margin: 1rem 0;
    color: #ffffff;
    font-family: sans-serif;
    }

    .faq-accordion details {
    margin-bottom: 0.5rem;
    border: 1px solid #333;
    border-radius: 6px;
    overflow: hidden;
    }

    .faq-accordion summary {
    cursor: pointer;
    font-weight: bold;
    padding: 1rem;
    list-style: none;
    background-color: #000000;
    position: relative;
    color: #ffffff;
    }

    .faq-accordion summary::-webkit-details-marker {
    display: none;
    }

    .faq-accordion summary::after {
    content: „+“;
    position: absolute;
    right: 1rem;
    top: 50%;
    transform: translateY(-50%);
    font-size: 1.2rem;
    transition: transform 0.2s;
    color: #ffffff;
    }

    .faq-accordion details[open] summary::after {
    content: „–“;
    }

    .faq-accordion details > div {
    background-color: #202124;
    padding: 1rem;
    color: #ffffff;
    }

    Frage 1: Was genau macht Higgsfield AI? Higgsfield AI ist eine KI-Multiplattform für das erstellen von Bildern und Videos. Der Fokus liegt dabei auf der Erstellung konsistenter Charaktere und realistischer Bewegungen für Content Creators.
    Frage 2: Kann man Higgsfield AI kostenlos nutzen? Ja, es gibt ein Freemium-Modell. Nutzer können das Tool kostenlos testen, erhalten jedoch eine begrenzte Anzahl an Credits und die Videos werden mit einem Wasserzeichen versehen.
    Frage 3: Was kostet das Abo bei Higgsfield? Die Preise variieren, aber der beliebte Ultimate Plan liegt bei monatlicher Zahlung oft im mittleren zweistelligen Bereich. Es gibt teils starke Rabatte für Jahres- oder Zweijahresverträge.
    Frage 4: Wie funktioniert das Custom Character Training? Du lädst mehrere Fotos einer Person hoch. Die KI trainiert daraufhin ein Modell dieses Gesichts. Danach kannst du diesen Charakter in beliebige neue Szenarien setzen, ohne dass sich das Gesicht verändert.
    Frage 5: Gibt es eine App für Higgsfield? Ja, Higgsfield bietet die mobile App „Diffuse“ an, die sowohl für iOS als auch für Android verfügbar ist und nahtlos mit der Web-Version synchronisiert.
    Frage 6: Darf ich die Videos kommerziell nutzen? Ja, wenn du einen bezahlten Plan nutzt, erhältst du in der Regel die kommerziellen Nutzungsrechte an den generierten Videos. Im Free-Plan ist dies meist eingeschränkt.
    Frage 7: Wie lang können die Videos sein? Aktuell generiert das Tool meist Clips von wenigen Sekunden (z.B. 4-15 Sekunden). Diese können jedoch verlängert oder im Editor aneinandergereiht werden.
    Frage 8: Ist Higgsfield besser als Runway? Das kommt auf den Zweck an. Runway hat nur ein Model. Higgsfield ist eine Multiplattform, welche ganz viele verschiedene Modelle anbietet.
    Frage 9: Welche Sprachen versteht Higgsfield? Die Benutzeroberfläche ist Englisch, aber das Tool versteht Prompts (Eingabebefehle) in vielen Sprachen, auch sehr gut auf Deutsch.
    Frage 10: Was ist die Motion Brush Funktion? Mit dem Motion Brush kannst du auf einem statischen Bild Bereiche markieren (z.B. Wolken oder Wasser) und festlegen, in welche Richtung sie sich bewegen sollen.
    Frage 11: Kann ich eigene Videos hochladen und verändern? Ja, die „Video-to-Video“ Funktion erlaubt es, ein eigenes Video hochzuladen und den Stil komplett zu ändern (z.B. Anime-Stil), während die Bewegung erhalten bleibt.
    Frage 12: Wie lange dauert das Rendern eines Videos? Higgsfield ist schnell. Oft werden Videos in unter einer Minute generiert, abhängig von der Serverauslastung und der Komplexität des Prompts. Priority-Nutzer werden bevorzugt. Unlimited dauert deutlich länger.
    Frage 13: Funktioniert Higgsfield auch im Browser am PC? Ja, alle Funktionen sind über den Webbrowser verfügbar.
    Frage 14: Wie gut ist die Videoqualität? Higgsfield bietet alle aktuellen Modelle an und entsprechend gibt es immer die aktuell bestmögliche Qualität.
    Frage 15: Gibt es eine API für Entwickler? Ja, Higgsfield bietet eine API an, die jedoch meist an den Creator- oder Enterprise-Plan gekoppelt ist. Dokumentationen finden sich im Developer-Bereich nach dem Login.
    Frage 16: Wer steckt hinter Higgsfield AI? Das Unternehmen wurde von Alex Mashrabov gegründet, dem ehemaligen Leiter der AI-Abteilung bei Snap (Snapchat), und wird von namhaften Investoren unterstützt.
    Frage 17: Kann ich Fehler im Video korrigieren (Inpainting)? Ja, Higgsfield bietet Inpainting-Funktionen an, mit denen man fehlerhafte Bereiche maskieren und per Prompt neu generieren lassen kann, ohne das ganze Video zu verwerfen.
    Frage 18: Welche Arten von Inhalten kann ich erstellen? Higgsfield arbeitet mit allen großen Anbietern zusammen, hat aber auch kleinere Modelle, welche ohne großen Restriktionen verwendet werden können.
    Frage 19: Kann ich Lippenbewegungen synchronisieren? Ja, Higgsfield bietet Audio-Sync-Funktionen, die Bewegungen und Lippen an hochgeladene Sprach- oder Musikdateien anpassen können.
    Frage 20: Wie kündige ich das Abo? Das Abo lässt sich jederzeit über die Account-Einstellungen im Web-Dashboard kündigen. Rechts oben auf den Account, Manage Account und dann auf „Subscription“ klicken. Dort sieht man auch, welche Modelle man unlimitiert verwenden kann.

  • Qwen3-VL analysiert zweistündige Videos und findet fast jedes Detail

    Wenige Monate nach der Veröffentlichung legt Alibaba nun den detaillierten technischen Bericht zu Qwen3-VL vor. Das offene, multimodale KI-Modell zeigt in Tests überlegene Leistungen bei mathematischen Aufgaben mit Bildern und kann stundenlange Videos analysieren.

    Der Artikel Qwen3-VL analysiert zweistündige Videos und findet fast jedes Detail erschien zuerst auf The Decoder.

  • Google schlägt Sora 2 in Benchmarks

    Veo 3 Startbild

    Nano Banana

    Kurzfassung

    Quellen

    Google hat Veo 3.1 veröffentlicht, ein Update für sein KI-Videomodell, das erstmals nativen Ton erzeugen kann.
    Neue Funktionen wie „Insert“ erlauben das nachträgliche Hinzufügen von Objekten in erstellte Videos.
    Die Neuerungen sind in Googles Bearbeitungstool „Flow“ integriert und sollen die kreative Kontrolle verbessern.
    Seit dem Start von Flow wurden mit der Technologie bereits über 275 Millionen Videos generiert.

    Google Blog
    Google Developers Blog
    Google DeepMind
    Google Cloud Vertex AI
    TechCrunch

    Google DeepMind hat mit Veo 3.1 ein bedeutendes Upgrade für sein KI-Videomodell veröffentlicht. Die neue Version verbessert nicht nur die Bildqualität und die Genauigkeit bei der Umsetzung von Texteingaben, sondern übertrifft in direkten Vergleichen auch den Vorgänger Veo 3 und Konkurrenzmodelle wie Sora 2. Besonders die gesteigerte Konsistenz und der filmische Realismus stehen im Fokus. Besser, schärfer und verständiger Der Sprung von Version 3 zu 3.1 zeigt sich vor allem in drei Kernbereichen. Veo 3.1 erzeugt Videos mit höherem Realismus, insbesondere bei Texturen und der Darstellung von physikalischen Eigenschaften. Zudem wurde die sogenannte Prompt-Treue verbessert, das Modell setzt also die Anweisungen des Nutzers genauer und mit weniger Fehlinterpretationen um. Die wohl wichtigste Neuerung ist die gesteigerte Konsistenz. Charaktere und Objekte behalten über mehrere Szenen hinweg ihr Aussehen und ihre Eigenschaften bei, ein entscheidender Faktor für erzählerische Inhalte. Frühere Schwächen, wie plötzliche Veränderungen im Hintergrund oder bei Gesichtern, wurden gezielt adressiert.

    Veo 3.1 dominiert im direkten Vergleich Google untermauert die Fortschritte mit neuen Benchmark-Ergebnissen. In von Menschen durchgeführten Side-by-Side-Bewertungen wurde Veo 3.1 klar vor Veo 3 und führenden Konkurrenzmodellen eingestuft. Bei der visuellen Qualität bevorzugten die Tester in 54,6 Prozent der Fälle Veo 3.1 gegenüber Veo 3. Noch deutlicher fällt das Ergebnis bei der Genauigkeit der Prompts aus. Hier sahen die menschlichen Bewerter Veo 3.1 in 59,8 Prozent der Vergleiche vorne. Diese Zahlen deuten darauf hin, dass Google nicht nur die Ästhetik, sondern vor allem das grundlegende Verständnis und die zuverlässige Umsetzung von kreativen Ideen verbessert hat. + Quelle: Google – Benchmark über mehrere Kategorien, Veo 3.1 vs andere Bildgeneratoren. Bearbeitung direkt in der Szene Ein weiterer entscheidender Fortschritt sind die neuen Bearbeitungswerkzeuge. Mit der „Insert“-Funktion können Nutzer jetzt beliebige Objekte nachträglich in eine generierte Szene einfügen. Die KI analysiert dabei selbstständig Lichtverhältnisse, Schatten und den Stil des Videos, um das neue Element nahtlos zu integrieren. Google hat zudem angekündigt, dass bald eine „Remove“-Funktion folgen wird. Diese soll es ermöglichen, unerwünschte Objekte oder Personen aus einem Clip zu entfernen, während die KI den Hintergrund intelligent rekonstruiert. Diese Werkzeuge heben die Technologie von einer reinen Generierungs-KI zu einem interaktiven Bearbeitungstool.

    Der Ton macht das Video Die größte funktionale Erweiterung von Veo 3.1 ist die native Audio-Generierung. Das Modell erzeugt nun passenden Ton direkt zusammen mit dem Videomaterial. Nutzer können in ihren Prompts nicht nur die visuellen Aspekte, sondern auch Geräusche, Dialoge oder die musikalische Stimmung beschreiben. Dieser integrierte Ansatz vereinfacht den Produktionsprozess erheblich, da keine separaten Werkzeuge für die Vertonung mehr nötig sind. Die KI synchronisiert den Ton mit den visuellen Ereignissen im Clip. Veo 3.1 ist ab sofort in Googles Videobearbeitungstool Flow sowie über die Gemini API und Vertex AI verfügbar.

  • Japan warnt OpenAI vor Urheberrechtsverstößen durch KI-Videomodell Sora 2

    Nach massenhaft geteilten Videos im Stil berühmter Anime hat Japans Regierung OpenAI aufgefordert, mit seinem Videomodell Sora 2 keine Urheberrechte zu verletzen. Politiker warnen vor rechtlichen Schritten, sollte das Unternehmen nicht reagieren.

    Der Artikel Japan warnt OpenAI vor Urheberrechtsverstößen durch KI-Videomodell Sora 2 erschien zuerst auf THE-DECODER.de.

  • OpenAI stellt Sora 2 vor

    Sam Altman bei einem Schwimmwettbewerb mit Sora 2

    OpenAI stellt Sora 2 vor Mehr Realismus, bessere Kontrolle und integrierter Ton. Das sind die bahnbrechenden Neuerungen der stärksten Video-KI der Welt. Kurzfassung | Andreas Becker, 01.10.25
    OpenAI Sora 2 | All-AI.de EINLEITUNG OpenAI hat mit Sora 2 sein neues Top-Modell zur Video- und Audioerstellung vorgestellt. Es ist physikalisch genauer, realistischer und besser steuerbar als frühere Systeme. Die KI stellt einen Quantensprung für die Videogenerierung dar und kann erstmals auch synchronisierte Dialoge und passende Soundeffekte erzeugen. OpenAI selbst spricht vom „GPT-3.5-Moment für Videos“ und unterstreicht damit die Tragweite dieser neuen Entwicklungsstufe. Zur Erinnerung: GPT-3.5 war der Moment, in dem ChatGPT erstmals in der Praxis richtig gut nutzbar war. NEWS Ein Sprung zur physikalischen Korrektheit Die Fortschritte von Sora 2 zeigen sich in der Fähigkeit, komplexe Szenarien zu generieren, die für bisherige Modelle unmöglich waren. Dazu gehören olympische Turnübungen oder ein Rückwärtssalto auf einem Paddleboard, bei dem die Dynamik von Auftrieb und Festigkeit korrekt modelliert wird. Der entscheidende Unterschied zu Vorgängern liegt im Umgang mit den Gesetzen der Physik. Frühere Modelle verformten oft die Realität, um eine Anweisung erfolgreich auszuführen. So konnte es passieren, dass ein Basketball, der den Korb verfehlte, unnatürlich ins Netz teleportiert wurde. Sora 2 verhält sich hier realistischer: Der Ball prallt physikalisch korrekt vom Korbbrett ab. Diese Fähigkeit, nicht nur Erfolge, sondern auch Misserfolge korrekt zu simulieren, ist eine entscheidende Eigenschaft für einen nützlichen Welten-Simulator. Selbst die Fehler, die das Modell noch macht, ähneln oft den Fehlern eines menschlichen Akteurs, den die KI intern zu modellieren scheint. Quelle: OpenAI – englische und deutsche Sprache Umfassende Kontrolle und audiovisuelles Erlebnis Neben dem Realismus wurde die Steuerbarkeit des Modells erheblich verbessert. Sora 2 kann komplizierte Anweisungen über mehrere Einstellungen hinweg befolgen und dabei den Zustand der simulierten Welt konsistent beibehalten. Die KI beherrscht zudem verschiedene Stilrichtungen und erzeugt überzeugende Ergebnisse in realistischen, filmischen oder auch Anime-Stilen. Das System ist als universelles Werkzeug zur Video- und Audio-Generierung konzipiert. Es ist in der Lage, anspruchsvolle Hintergrundgeräusche, Sprache und Soundeffekte mit einem hohen Grad an Realismus zu erstellen. Damit lassen sich komplette audiovisuelle Szenen aus einer einzigen Anweisung heraus erschaffen.

    Sora wird sozial: Die neue App OpenAI stellt die Technologie von Sora 2 über eine neue soziale iOS-App mit dem Namen „Sora“ zur Verfügung. Diese App ist darauf ausgelegt, dass Nutzer KI-generierte Videos nicht nur konsumieren, sondern vor allem selbst erstellen und mit anderen teilen. Die Einführung erfolgt zunächst nur auf Einladungsbasis in den USA und Kanada. Das Kernstück der App ist eine Funktion namens „Cameos“. Sie erlaubt es Nutzern, sich selbst oder Freunde in die KI-generierten Videos einzufügen. Dafür ist eine einmalige Video- und Audio-Aufnahme in der App nötig, um die Identität zu verifizieren und das digitale Abbild zu erstellen. OpenAI betont, dass die Nutzer die volle Kontrolle über ihr Abbild behalten und jederzeit den Zugriff darauf entziehen oder Videos mit ihrem Cameo entfernen können. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG OpenAI startet Sora 2, eine verbesserte KI-Videogenerierung mit realistischer Physik-Simulation und integriertem Audio. Die neue iOS-App „Sora“ funktioniert wie TikTok, zeigt aber ausschließlich KI-generierte Videos mit einem „Cameo“-Feature für personalisierte Inhalte. Die App ist zunächst nur in USA und Kanada verfügbar und erfordert eine Einladung, während umfangreiche Sicherheitsmaßnahmen Missbrauch verhindern sollen. OpenAI positioniert sich als direkter Konkurrent zu TikTok und anderen Social-Media-Plattformen in einem wachsenden Markt für KI-Video-Inhalte. QUELLEN WIRED OpenAI 9to5Mac The Verge Engadget

  • OpenAI startet Frontalangriff auf TikTok mit Sora 2

    Ein Nutzer schaut Sora 2

    OpenAI startet Frontalangriff auf TikTok mit Sora 2 Mit einer neuen App, in der nur KI-Videos existieren, will die Firma hinter ChatGPT den Social-Media-Markt umkrempeln. Kurzfassung | Andreas Becker, 30.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Stellt euch eine Social-Media-Plattform vor, die wie TikTok funktioniert, aber ganz ohne von Nutzern gefilmte Videos auskommt. OpenAI plant genau das mit einer neuen App und dem Video-Modell Sora 2. Die Anwendung generiert sämtliche Inhalte mithilfe künstlicher Intelligenz und könnte die Art und Weise, wie wir mit sozialen Medien interagieren, grundlegend verändern. Damit fordert das Unternehmen nicht nur etablierte Plattformen heraus, sondern wirft auch heikle Fragen zum Urheberrecht und zur digitalen Identität auf. NEWS Eine Welt aus rein synthetischen Videos Die Funktionsweise der App orientiert sich stark am bekannten Vorbild: Ein vertikaler Video-Feed lässt sich durch Wischen navigieren, Nutzer können Inhalte liken, kommentieren und neu mischen. Der entscheidende Unterschied liegt in der Erstellung der Inhalte. Anstatt eigene Clips hochzuladen, beschreiben die Nutzer ihre Ideen in Textform, woraufhin die KI Videos von maximal zehn Sekunden Länge erstellt. Ein personalisierter „Für Dich“-Feed sorgt dafür, dass die Nutzer passende künstliche Welten entdecken. Besonders neuartig ist die Funktion zur Identitätsverifizierung. Nutzer können ihr Gesicht authentifizieren lassen, damit ihr digitales Abbild in Videos verwendet werden kann. Andere Personen haben dann die Möglichkeit, diese verifizierte Erscheinung in ihren eigenen KI-generierten Clips zu verwenden und zu markieren. Als Schutzmaßnahme erhält der „Eigentümer“ des Gesichts eine Benachrichtigung, sobald sein Abbild in einem Video-Entwurf genutzt wird, noch bevor dieser veröffentlicht ist. Umstrittene Regeln und wachsender Wettbewerb Gleichzeitig zur Einführung der App verschärft OpenAI seine Strategie beim Urheberrecht. Das neue System hinter Sora 2 wird standardmäßig urheberrechtlich geschützte Werke für das Training und die Erstellung von Inhalten nutzen. Rechteinhaber, die dies nicht wünschen, müssen aktiv widersprechen. Diese Umkehr der Beweislast verlagert die Verantwortung auf die Urheber und spiegelt einen wachsenden Trend in der KI-Branche wider. Auch Meta und LinkedIn haben es bereits genau so gemacht. Der Vorstoß geschieht in einem Marktumfeld mit intensivem Wettbewerb. Meta hat kürzlich mit „Vibes“ einen eigenen Feed für KI-generierte Videos gestartet, und auch YouTube integriert Googles Videogenerator Veo 3 direkt in seine Kurzvideo-Sektion Shorts. Gleichzeitig könnte OpenAI von der unsicheren Zukunft TikToks in den USA profitieren, da ein möglicher Verkauf oder ein Verbot eine Lücke für eine Alternative ohne chinesische Verbindungen schaffen würde. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG OpenAI entwickelt eine TikTok-ähnliche Social-Media-App namens Sora 2, die ausschließlich KI-generierte Videos bis zu 10 Sekunden Länge anbietet. Die neue Copyright-Politik erfordert, dass Rechteinhaber aktiv widersprechen müssen, um ihre Inhalte von der KI-Nutzung auszuschließen. Der Launch erfolgt inmitten verschärfter Konkurrenz durch Meta’s Vibes-Feed und Googles Veo 3-Integration in YouTube Shorts. Sicherheits- und Regulierungsherausforderungen durch EU-KI-Verordnung und Kinderschutzbestimmungen prägen die Entwicklung. QUELLEN WIRED – OpenAI Is Preparing to Launch a Social App for AI-Generated Videos Engadget – OpenAI will reportedly release a TikTok-like social app alongside Sora 2 Wall Street Journal – OpenAI’s New Sora Video Generator to Require Copyright Holders to Opt Out Reuters – OpenAI’s new Sora video generator to require copyright holders to opt out TechCrunch – Meta launches ‚Vibes,‘ a short-form video feed of AI slop