Schlagwort: Modell

  • Anthropics neues Claude-Modell Sonnet 4.5 soll bis zu 30 Stunden am Stück arbeiten

    Anthropics neues Sonnet 4.5-Modell setzt den aktuellen Kurs der LLM-Entwicklung fort: Der Fokus liegt auf Code und auf Ausdauer.

    Der Artikel Anthropics neues Claude-Modell Sonnet 4.5 soll bis zu 30 Stunden am Stück arbeiten erschien zuerst auf THE-DECODER.de.

  • ChatGPT-Sicherheitsrouter schaltet bei emotionalen Anfragen heimlich um

    Ein „Safety Router“ in ChatGPT schaltet bei emotionalen oder personalisierten Nutzeranfragen automatisch auf ein restriktiveres Modell um, macht dies aber nicht transparent. Manche Nutzer verärgert das.

    Der Artikel ChatGPT-Sicherheitsrouter schaltet bei emotionalen Anfragen heimlich um erschien zuerst auf THE-DECODER.de.

  • Billiger, schneller, smarter: Das neue Google Gemini

    Gemini Flash wird richtig stark

    Billiger, schneller, smarter: Das neue Google Gemini Google veröffentlicht Updates für Gemini 2.5 Flash und Flash-Lite, mit denen Entwickler bis zu 50% der KI-Kosten einsparen. Kurzfassung | Andreas Becker, 27.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Google hat neue Versionen seiner KI-Modelle Gemini 2.5 Flash und Flash-Lite veröffentlicht. Das Update verspricht nicht nur mehr Leistung, sondern vor allem massive Kosteneinsparungen für Entwickler. Besonders kleinere Unternehmen könnten davon profitieren, denn leistungsstarke künstliche Intelligenz wird dadurch deutlich zugänglicher. Die neuen Modelle sind als Vorschauversionen ab sofort verfügbar. NEWS Mehr Effizienz und Präzision für die breite Masse Im Zentrum des Updates steht das Modell Gemini 2.5 Flash-Lite. Google hat es gezielt in mehreren Bereichen verbessert. Es folgt komplexen Anweisungen nun zuverlässiger und liefert deutlich knappere Antworten. Das ist besonders für Anwendungen entscheidend, die in kurzer Zeit sehr viele Anfragen bearbeiten müssen. Auch bei multimodalen Aufgaben, wie der Transkription von Audiodateien oder der Bilderkennung, zeigt das Modell spürbare Fortschritte. Die entscheidende Neuerung ist jedoch die Kostenreduktion. Durch die prägnanteren Antworten sinkt die Anzahl der benötigten Ausgabe-Token bei Flash-Lite um bis zu 50 Prozent. Das halbiert in vielen Fällen die direkten Kosten für Entwickler und Unternehmen. Diese massive Effizienzsteigerung macht es vor allem für Start-ups und Firmen mit kleineren Budgets attraktiver, anspruchsvolle KI-Lösungen zu entwickeln und zu betreiben. + Quelle: Google Neue Agenten-Fähigkeiten für komplexe Aufgaben Auch das leistungsstärkere Modell, Gemini 2.5 Flash, erhält wichtige Verbesserungen. Hier liegt der Fokus auf erweiterten agentenbasierten Fähigkeiten. Das Modell kann nun besser mit externen Werkzeugen interagieren, was für komplexe, mehrstufige Prozesse notwendig ist. In einem wichtigen Benchmark für Softwareentwicklungsaufgaben (SWE-Bench Verified) konnte das Modell seine Leistung um fünf Prozent steigern. Frühe Tester berichten von deutlichen Verbesserungen bei anspruchsvollen Langzeit-Aufgaben. Um Entwicklern den Zugang zu den neuesten Versionen zu erleichtern, führt Google zudem eine Alias-Funktion ein. Mit der Endung „-latest“ im Code greifen Anwendungen automatisch auf das aktuellste Modell zu, ohne dass eine manuelle Anpassung nötig wird. Mit diesen Updates positioniert Google seine Modelle als flexible Werkzeuge im KI-Wettbewerb und bindet Entwickler frühzeitig in den Verbesserungsprozess ein. + Quelle: Google MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG Google hat neue Versionen der KI-Modelle Gemini 2.5 Flash und Flash-Lite mit deutlich reduzierten Token-Kosten und verbesserter Effizienz vorgestellt. Flash-Lite bietet 50% weniger Ausgabe-Token, bessere Anweisungsfolge und verbesserte multimodale Fähigkeiten für kostensensitive Anwendungen. Flash erhielt optimierte agentenbasierte Tool-Nutzung und zeigt 5% bessere Leistung bei Software-Entwicklungsaufgaben im SWE-Bench Verified. Neue „-latest“-Aliases ermöglichen automatische Updates auf die neueste Modellversion ohne Code-Anpassungen für Entwickler. QUELLEN 9to5Google Google Developers Blog Schmidt Is Blog IT Boltwise Google AI for Developers

  • Der nächste Schritt für KI-Coder

    Ein Lama programmiert mit KI

    Der nächste Schritt für KI-Coder Vergessen Sie simple Code-Generatoren. Metas CWM analysiert Programmabläufe und versteht die Konsequenzen jeder einzelnen Zeile. Kurzfassung | Andreas Becker, 25.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Bisherige KI-Modelle schreiben Code oft, ohne dessen Ausführung wirklich zu verstehen. Sie behandeln ihn wie reinen Text. Meta stellt mit dem Code World Model (CWM) nun einen neuen Ansatz vor. Das Modell lernt nicht nur das Schreiben, sondern simuliert auch, was der Code im System bewirkt. Es entwickelt eine Art „mentales Modell“ für Programmabläufe und soll so das Debugging revolutionieren, noch bevor ein Mensch den Code überhaupt ausführt. NEWS Ein Weltmodell für den Code Meta bricht mit der Tradition, KI-Modelle nur auf statischem Quellcode zu trainieren. Der entscheidende Unterschied beim Code World Model liegt im Trainingsprozess, der die tatsächliche Ausführung von Programmen in den Mittelpunkt stellt. Dafür analysierte das Modell über 120 Millionen sogenannte „Execution Traces“ von Python-Programmen. Bei diesen Durchläufen lernte die KI, wie sich Variablenzustände nach jeder einzelnen Befehlszeile verändern und wie sich der Programmfluss entwickelt. Um eine realistische und komplexe Lernumgebung zu schaffen, setzte Meta zusätzlich auf über 35.000 Docker-Container. Diese wurden aus öffentlichen GitHub-Projekten erstellt und ermöglichten es dem Modell, Code in einer echten Laufzeitumgebung auszuführen, inklusive aller Abhängigkeiten und Tests. Dieser Ansatz erlaubt der KI, direkt mit dem Code zu interagieren, Fehler zu provozieren und aus den Ergebnissen zu lernen, anstatt nur textuelle Muster zu erkennen. + Quelle: Meta Leistung in der Praxis und Ausblick Die Resultate dieser neuen Trainingsmethode sind messbar. Für die Bewertung entwickelte Meta den neuen Benchmark „HaltEval“, der prüft, ob ein Modell vorhersagen kann, ob ein Programm erfolgreich endet oder in einer Endlosschleife stecken bleibt. Hier erreichte das Code World Model eine Genauigkeit von 94 Prozent. Auch in etablierten Software-Engineering-Tests wie SWE-Bench übertrifft CWM viele Open-Source-Modelle seiner Größenklasse und zeigt eine starke Leistung bei der Lösung mathematischer Probleme. Meta betont, dass CWM aktuell ein reines Forschungsmodell ist und nicht für den produktiven Einsatz in Chatbots oder anderen Alltagswerkzeugen gedacht ist. Das Unternehmen hat das 32-Milliarden-Parameter-Modell zusammen mit seinen Trainings-Zwischenschritten auf der Plattform Hugging Face unter einer nicht-kommerziellen Forschungslizenz veröffentlicht. Damit öffnet Meta die Tür für Forscher weltweit, um auf dieser Grundlage aufzubauen und die nächste Generation von KI-Werkzeugen zu entwickeln, die Code nicht nur schreiben, sondern fundamental verstehen. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG Meta stellt mit CWM ein KI-Modell vor, das Code nicht nur schreibt, sondern dessen Ausführung simuliert. Das 32-Milliarden-Parameter-System lernte aus über 120 Mio. Python-Traces und 35 000 Docker-Containern. CWM erreicht 94% Genauigkeit bei HaltEval und übertrifft viele gleichgroße Open-Source-Modelle in SWE-Bench. Modell und Trainingscheckpoints sind unter nicht-kommerzieller Lizenz auf Hugging Face verfügbar. QUELLEN The Decoder Marktechpost Meta AI Blog Hugging Face 36Kr Europe

  • Qwen3-Max ist Alibabas neues Spitzenmodell

    Alibaba hat mit Qwen3-Max sein bisher größtes und leistungsstärkstes KI-Modell veröffentlicht. Die Verbesserungen machen das Modell für praktische Anwendungen in der Softwareentwicklung und Automatisierung interessanter.

    Der Artikel Qwen3-Max ist Alibabas neues Spitzenmodell erschien zuerst auf THE-DECODER.de.

  • Suno v5: Neuer Elo-Bestwert!

    Ein AI Musikstudio

    Suno v5: Neuer Elo-Bestwert! KI-Gesang klingt so echt, dass du den Unterschied nicht mehr hörst. Die neue Ära der automatisierten Hits beginnt jetzt Kurzfassung | Andreas Becker, 24.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Der KI-Musikgenerator Suno hat mit der Veröffentlichung seiner fünften Modellversion einen Meilenstein erreicht. Das am 23. September 2025 für Pro- und Premier-Abonnenten gestartete Suno v5 verspricht eine immersive Audioqualität, authentische Gesangsstimmen und eine zuvor unerreichte kreative Kontrolle. Dieses Update setzt neue Maßstäbe in der automatisierten Musikproduktion und übertrifft laut Unternehmensangaben alle Konkurrenzprodukte deutlich.
    Cookies aktivieren um den Inhalt zu sehen:
    Cookiebar öffnen

    Everything changes with Suno v5. Launching today for Pro and Premier subscribers, the world’s best music model delivers more immersive audio, authentic vocals, and unparalleled creative control that will transform how you make music. This breakthrough goes beyond making better… pic.twitter.com/QNrci69JW2 — Suno (@SunoMusic) September 23, 2025 NEWS Technischer Sprung und Qualitätsmaßstäbe Suno v5 markiert den dritten Modellstart in Folge, der externe KI-Musikgeneratoren übertrifft. Eine interne Elo-Bewertungsgrafik des Unternehmens zeigt die klare Überlegenheit des neuen Modells: Suno v5 erreicht 1293 Punkte, während der Vorgänger v4.5+ bei 1208 Punkten lag und Wettbewerber zwischen 775 und 1100 Punkten rangieren. Die technischen Fortschritte konzentrieren sich maßgeblich auf die Gesangsqualität und die Prompt-Interpretation. Nutzer können nun eine Bandbreite von „zarten, intimen Darbietungen bis hin zu kraftvollen Gesangsleistungen mit Vibrato“ erzeugen. Ein Musiker der Band „Singular Decomposition“ beschreibt den Unterschied zwischen v5 und v3 als „kolossalen Abstand“ hinsichtlich Stimm-Ausdruckskraft und korrekter Betonung. Das Modell versteht Nutzerbeschreibungen präziser und erfasst emotionale Nuancen sowie technische Musikelemente effektiver. + Quelle: Suno Funktionsvielfalt und Marktblick Das neue Modell optimiert auch die Handhabung von Metatags. Diese lassen sich nun ganzen Songabschnitten zuordnen, statt vor jede Zeile gesetzt werden zu müssen. Bei der Instrumentierung zeigt v5 gemischte Ergebnisse: Elektronische Gitarren klingen „etwas sauberer“, haben aber laut Nutzerfeedback noch immer Defizite. Akustische Gitarren, Ambient-Komponenten und Schlagzeugparts überzeugen bereits seit Version 4, wobei elektronische Musik Sunos „natives Element“ bleibt. Suno festigt damit seine führende Marktposition in einem umkämpften Segment. Während Konkurrent Udio bei Audioqualität und Instrumentierung punktet, überzeugt Suno mit eingängigen Melodien und einer besseren Gesamtstruktur. Branchenanalysten prognostizieren Suno einen Marktanteil von 65-70 Prozent, Udio soll 25-30 Prozent im professionellen Bereich erreichen. Die Nutzerreaktionen auf v5 fallen überwiegend positiv aus, die Plattform verzeichnet bereits über 4,2 Millionen monatliche Nutzer und kündigt mit „Suno Studio“ weitere Features für vollständige Track-Neuarrangements und Stimmverbesserungen an. Suno v5 legt damit die Grundlage für die nächste Generation kreativer Musikwerkzeuge. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG Suno hat am 23. September 2025 die fünfte Version seines KI-Musikgenerators für Pro- und Premier-Abonnenten veröffentlicht. Das neue Modell erreicht einen vorläufigen Elo-Score von 1293 Punkten und übertrifft damit alle Konkurrenzprodukte deutlich. Suno v5 bietet verbesserte Gesangsqualität, authentische Vocals und immersive Audioqualität mit erweiterten kreativen Kontrollmöglichkeiten. Das Unternehmen behauptet seine Marktführerschaft mit prognostizierten 65-70 Prozent Marktanteil gegenüber Konkurrent Udio. QUELLEN AIbase – Suno v5 Music Model Launch ForkLog – Suno Unveils v5 Model LatestLY – Suno V5 Launch für Pro-Nutzer RouteNote – Suno AI Music Features Update ArXiv – Music Generation Models Benchmarking

  • 98 % günstiger als der Vorgänger

    Ein eleganter Panther ist effizient unterwegs

    98 % günstiger als der Vorgänger xAI stellt Grok 4 Fast vor und will damit die hohen Kosten für Spitzen-KI radikal senken – bei fast identischer Leistung. Kurzfassung | Andreas Becker, 21.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Das KI-Wettrüsten geht in die nächste Runde, doch diesmal stehen nicht nur reine Leistungsdaten im Fokus. Mit Grok 4 Fast schickt xAI, das Unternehmen von Elon Musk, ein neues Sprachmodell ins Rennen, das bei nahezu gleicher Performance wie das bisherige Spitzenmodell Grok 4 eine drastisch höhere Effizienz verspricht. Dieser Schritt zielt direkt auf die hohen Betriebskosten ab, die eines der größten Hemmnisse für den breiten Einsatz von Spitzen-KI darstellen. NEWS Gleiche Leistung, deutlich geringere Kosten Der Kern der Neuerung liegt in einer optimierten Architektur. Grok 4 Fast benötigt für vergleichbare Ergebnisse im Schnitt 40 Prozent weniger sogenannte „Thinking Tokens“ als sein Vorgänger. Diese Reduzierung des Rechenaufwands schlägt sich direkt in den Kosten nieder, die laut xAI um bis zu 98 Prozent sinken können. Möglich wird dies durch ein hybrides Design, das einfache Anfragen und komplexe Denkprozesse in einem einzigen Modell vereint, anstatt wie bisher zwischen unterschiedlichen Modellen zu wechseln. In etablierten Benchmarks wie GPQA Diamond oder AIME 2025 muss sich das neue Modell nicht verstecken und liegt auf einem ähnlichen Niveau wie Grok 4. Besonders hervorzuheben ist jedoch die Fähigkeit des Modells, eigenständig auf externe Werkzeuge wie einen Webbrowser oder eine Code-Ausführungsumgebung zuzugreifen. Diese „Agenten-Fähigkeiten“ wurden gezielt trainiert und führen dazu, dass Grok 4 Fast in spezialisierten Benchmarks, die solche Aufgaben bewerten, sogar besser abschneidet als sein Vorgänger und Konkurrenten wie OpenAIs Websuche-Modell. + Quelle: xAI Neue Architektur und Fokus auf praktische Anwendung Im Gegensatz zu früheren Versionen, die auf getrennte Modelle für einfache und komplexe Aufgaben setzten, integriert Grok 4 Fast beide Fähigkeiten in einer einzigen Architektur. Das Verhalten des Modells wird dabei über den System-Prompt gesteuert, was die Latenz und die Kosten für Entwickler reduziert. xAI stellt das Modell über seine API in zwei Varianten bereit, die beide auf ein beeindruckendes Kontextfenster von zwei Millionen Token zugreifen können. Die aggressive Preisgestaltung, die je nach Nutzung bei nur 0,20 US-Dollar pro einer Million Input-Token startet, unterstreicht die Strategie von xAI. Das Unternehmen will nicht nur in den Leistungs-Benchmarks an der Spitze mitspielen, sondern KI auch für anspruchsvolle, hochfrequente Aufgaben wie Websuchen und interaktive Agenten wirtschaftlich attraktiv machen. Mit der Veröffentlichung auf Plattformen wie OpenRouter und Vercel wird zudem die Zugänglichkeit für Entwickler weiter erhöht. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG
    xAI hat Grok 4 Fast vorgestellt, ein neues KI-Modell, das die Leistung von Grok 4 bei deutlich geringeren Kosten bietet.
    Durch eine optimierte Architektur sinkt der Rechenaufwand um 40%, was die Kosten pro Aufgabe um bis zu 98% reduzieren kann.
    Das Modell wurde speziell für die Nutzung von Tools wie der Websuche trainiert und übertrifft hier sogar Konkurrenten.
    Grok 4 Fast verfügt über ein Kontextfenster von 2 Millionen Token und eine neue hybride Architektur, die es effizienter macht.
    QUELLEN
    Times of India
    MarkTechPost
    Yahoo News
    Artificial Analysis

  • KI-Orakel sagt deine Gesundheit voraus

    Ein Doktor sagt die Gesundheit voraus

    KI-Orakel sagt deine Gesundheit voraus Ein neues KI-Modell sagt Krankheiten Jahre im Voraus voraus. So funktioniert die Wettervorhersage für den menschlichen Körper. Kurzfassung | Andreas Becker, 19.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Was, wenn der nächste Arztbesuch nicht nur den aktuellen Zustand bewertet, sondern auch eine verlässliche Prognose für das nächste Jahrzehnt liefert? Eine Art Wettervorhersage für die persönliche Gesundheit. Genau das verspricht ein neues KI-Modell namens Delphi-2M, entwickelt von einem internationalen Forscherteam. Es analysiert Gesundheitsdaten, um die Wahrscheinlichkeit für über 1.000 verschiedene Krankheiten vorherzusagen und könnte damit die präventive Medizin grundlegend verändern. NEWS Mehr als nur Wettervorhersage für den Körper Die Technologie hinter Delphi-2M ähnelt der von bekannten Sprachmodellen wie ChatGPT. Statt jedoch Wortsequenzen in Sätzen vorherzusagen, lernt die KI, Muster im Verlauf von Krankengeschichten zu erkennen. Sie wurde mit den anonymisierten Gesundheitsdaten von über 400.000 Menschen aus der britischen UK Biobank trainiert, die Krankenhausaufenthalte, Arztberichte und Informationen zum Lebensstil umfassen. So kann das Modell berechnen, welches gesundheitliche „Ereignis“ als Nächstes mit welcher Wahrscheinlichkeit eintritt. Um die Zuverlässigkeit zu testen, validierten die Forscher das Modell anschließend mit einem noch größeren Datensatz von 1,9 Millionen Menschen aus Dänemark. Die Ergebnisse waren beeindruckend präzise. Wenn das Modell ein Risiko von eins zu zehn für eine bestimmte Krankheit im nächsten Jahr vorhersagte, trat dieser Fall auch tatsächlich bei etwa einem von zehn Patienten ein. Besonders gut funktioniert die Vorhersage bei Krankheiten mit klarem Verlauf wie Typ-2-Diabetes, Herzinfarkten oder Sepsis. Vom Labor in die Arztpraxis? Der praktische Nutzen einer solchen Technologie liegt auf der Hand. Ähnlich wie heute Statine auf Basis einer Risikoberechnung für Herzinfarkte verschrieben werden, könnten Ärzte künftig gezielte Präventionsmaßnahmen für Hochrisikopatienten einleiten, lange bevor eine Krankheit ausbricht. Das könnten Medikamente sein, aber auch spezifische Empfehlungen, wie die Reduzierung des Alkoholkonsums bei einem prognostizierten Risiko für Lebererkrankungen. Darüber hinaus ließe sich der Bedarf an medizinischen Ressourcen, etwa für Herzoperationen in einer bestimmten Region im Jahr 2030, besser planen. Bis Delphi-2M im Klinikalltag ankommt, wird es allerdings noch dauern. Die Forscher betonen, dass es sich um Grundlagenforschung handelt. Das Modell muss weiter verfeinert, getestet und reguliert werden. Zudem weist der ursprüngliche Trainingsdatensatz der UK Biobank eine gewisse Verzerrung auf, da er hauptsächlich Daten von Menschen zwischen 40 und 70 Jahren enthält. Das Modell markiert dennoch den Beginn einer neuen Herangehensweise, um den Verlauf von menschlicher Gesundheit und Krankheit im großen Stil zu verstehen. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG
    Ein neues KI-Modell namens Delphi-2M kann das Risiko für über 1.000 Krankheiten über Jahre hinweg vorhersagen.
    Die Technologie funktioniert ähnlich wie eine Wettervorhersage und liefert Wahrscheinlichkeiten basierend auf Mustern in anonymisierten Gesundheitsdaten.
    Ziel des Modells ist es, präventive Medizin zu ermöglichen und die Planung im Gesundheitswesen zu optimieren.
    Obwohl es sich noch um Forschung handelt, markiert die Technologie einen wichtigen Schritt für die personalisierte Medizin der Zukunft.
    QUELLEN
    BBC News
    Deutsches Krebsforschungszentrum (DKFZ)
    European Molecular Biology Laboratory (EMBL)
    Nature

  • Luma AI greift an: Ray3 ist da und lässt Sora alt aussehen

    Ein Mann surft auf einer Welle in New York

    Luma AI greift an: Ray3 ist da und lässt Sora alt aussehen Das neue KI-Videomodell erzeugt nicht nur erstmals HDR-Qualität, sondern kann auch denken. Was das für die Konkurrenz von OpenAI bedeutet. Kurzfassung | Andreas Becker, 19.09.25
    Luma | All-AI.de EINLEITUNG Die Konkurrenz im Bereich der KI-Videogenerierung schläft nicht. Während viele auf Sora von OpenAI blicken, prescht Luma AI mit Ray3 vor. Das neue Modell soll nicht nur Videos in bislang unerreichter HDR-Qualität erzeugen, sondern auch komplexe Anweisungen verstehen und über seine eigenen Ergebnisse nachdenken können. Ein entscheidender Schritt, der generative Videos aus der Experimentierphase in professionelle Produktionsabläufe heben könnte und durch eine Partnerschaft mit Adobe zusätzlich an Gewicht gewinnt. NEWS HDR-Qualität für professionelle Ansprüche Ein zentrales Merkmal von Ray3 ist die Fähigkeit, Videos nativ in High Dynamic Range (HDR) zu erzeugen. Das bedeutet einen deutlich größeren Farb- und Helligkeitsumfang, was zu realistischeren und lebendigeren Bildern führt, wie man sie sonst nur von hochwertigen Kinokameras kennt. Das Modell unterstützt dabei professionelle Farbtiefen von 10, 12 und sogar 16 Bit. Für Kreativschaffende ist das ein entscheidender Vorteil, da die generierten Inhalte nicht mehr nur wie nette Experimente aussehen, sondern sich für ernsthafte Produktionen eignen. Um die Integration in bestehende Arbeitsprozesse zu erleichtern, können die Videos als EXR-Dateien exportiert werden. Dieses Format ist in der Film- und Effektindustrie Standard und erlaubt eine nahtlose Weiterverarbeitung in Programmen für Farbkorrektur und visuelle Effekte. Luma AI geht sogar noch einen Schritt weiter und ermöglicht es, herkömmliche SDR-Videos (Standard Dynamic Range) in HDR umzuwandeln. Die sofortige Verfügbarkeit von Ray3 in Adobes Kreativ-App Firefly unterstreicht den Anspruch, ein Werkzeug für Profis zu sein. Quelle: Luma Eine KI, die mitdenkt Luma AI beschreibt die zweite große Neuerung als „Reasoning“-Fähigkeit. Ray3 soll nicht mehr nur stur einen Textbefehl in Pixel übersetzen, sondern die Anweisung des Nutzers wirklich verstehen. Das Modell kann demnach komplexe Szenen planen, eigene Entwürfe bewerten und bei unzureichender Qualität selbstständig neue Versuche starten, bis das Ergebnis den Vorstellungen entspricht. Dieser iterative Prozess, der einem menschlichen kreativen Vorgehen ähnelt, soll die Qualität und Kohärenz der Ergebnisse deutlich steigern. Diese neue Intelligenz ermöglicht auch erweiterte Steuerungsmöglichkeiten. Nutzer können durch einfache Zeichnungen oder Kritzeleien direkt auf einem Bild Bewegungen, Objekte und sogar die Kameraführung festlegen, ohne komplexe Prompts formulieren zu müssen. Ergänzt wird dies durch einen „Draft Mode“, der fünfmal schnellere und günstigere Entwürfe für die Ideenfindung ermöglicht. Ist der passende Entwurf gefunden, kann dieser mit einer „Hi-Fi“-Funktion in voller 4K-HDR-Qualität gerendert werden. Ab sofort ist Ray3 kostenlos in der Anwendung Dream Machine von Luma AI verfügbar. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG
    Luma AI hat sein neues KI-Videomodell Ray3 veröffentlicht, das als erstes generative Videos in professioneller HDR-Qualität erzeugen kann.
    Eine zentrale Neuerung ist die „Reasoning“-Fähigkeit, die es dem Modell ermöglicht, komplexe Anweisungen zu verstehen und eigene Ergebnisse selbstständig zu verbessern.
    Ray3 unterstützt professionelle Workflows durch den Export von EXR-Dateien und ist durch eine Partnerschaft direkt in Adobe Firefly integriert.
    Das Modell ist ab sofort kostenlos in Luma AIs Anwendung Dream Machine verfügbar und bietet zudem einen schnellen Entwurfsmodus.
    QUELLEN
    slashCAM
    Luma AI
    Business Wire
    Adobe Blog

  • OpenAI enthüllt GPT-5-Codex

    GPT5-Codex Intro Logo

    OpenAI enthüllt GPT-5-Codex Das neue KI-Modell ist kein Assistent mehr, sondern ein autonomer Kollege, der komplexe Programmier-Aufgaben selbstständig löst. Kurzfassung | Andreas Becker, 16.09.25
    OpenAI | All-AI.de EINLEITUNG Werkzeuge zur Code-Vervollständigung sind für Entwickler längst Alltag. OpenAI geht nun jedoch einen entscheidenden Schritt weiter und präsentiert mit GPT-5-Codex eine spezialisierte KI, die nicht nur assistieren, sondern als autonomer Partner agieren soll. Das neue Modell ist darauf trainiert, komplexe Aufgaben in der Softwareentwicklung eigenständig zu bewältigen. Benchmarks belegen dabei eine drastisch gesteigerte Leistung bei anspruchsvollen, realitätsnahen Programmieraufgaben. NEWS Ein Spezialist statt eines Generalisten OpenAI positioniert GPT-5-Codex bewusst als eine für die Softwareentwicklung optimierte Variante des Allzweckmodells GPT-5. Anstatt ein breites Wissensspektrum abzudecken, wurde das neue Modell gezielt mit Daten aus komplexen Engineering-Aufgaben trainiert. Dazu gehören das Erstellen ganzer Projekte, das Implementieren neuer Features, Debugging und vor allem großangelegte Code-Umstrukturierungen, sogenannte Refactorings. Hier zeigt sich die Stärke des Spezialisten: In einem Benchmark für Refactoring-Aufgaben erreicht GPT-5-Codex eine Genauigkeit von 51.3, während das allgemeine GPT-5 bei nur 33.9 liegt. Interessanterweise opfert das Modell dafür bei allgemeineren Aufgaben minimal an Leistung. Im etablierten SWE-Bench-Benchmark liegt die neue Version mit 74.5 nur sehr knapp vor dem allgemeinen GPT-5 Modell. OpenAI argumentiert, dass diese Spezialisierung gewollt ist. GPT-5-Codex passt seine „Denkzeit“ dynamisch an: Bei kleinen Anfragen liefert es schnelle Antworten, bei komplexen Problemen arbeitet es ausdauernd und kann laut Tests über sieben Stunden selbstständig an einer Lösung iterieren, Fehler beheben und am Ende ein funktionierendes Ergebnis liefern. + Quelle: OpenAI Der automatisierte Code-Prüfer Eine der markantesten Neuerungen ist die Fähigkeit von GPT-5-Codex, Code-Reviews durchzuführen. Einmal in einem GitHub-Repository aktiviert, analysiert die KI automatisch neue Pull Requests. Im Gegensatz zu herkömmlichen statischen Analyse-Tools, die nur nach Mustern suchen, versucht Codex, die Absicht hinter den Code-Änderungen zu verstehen. Es gleicht den Code mit der Beschreibung des Pull Requests ab, analysiert Abhängigkeiten im gesamten Projekt und führt sogar Tests aus, um das Verhalten zu validieren. Die Ergebnisse dieser neuen Funktion sind beeindruckend. Laut OpenAI sind von der KI generierte Kommentare in Reviews signifikant seltener falsch (4.4 im Vergleich zu 13.7 bei GPT-5). Gleichzeitig ist der Anteil an als hochrelevant eingestuften Anmerkungen deutlich gestiegen (52.4 gegenüber 39.4). Die KI soll somit menschliche Reviewer entlasten, indem sie kritische Fehler frühzeitig findet und die Aufmerksamkeit auf die wirklich wichtigen Probleme lenkt, anstatt mit irrelevanten Hinweisen zu stören. + Quelle: OpenAI Nahtlose Integration in den Arbeitsalltag Neben dem neuen KI-Modell hat OpenAI auch die gesamte Werkzeugkette überarbeitet. Der Codex-Dienst ist nun eine vereinheitlichte Plattform, die über die Kommandozeile (CLI), eine neue Erweiterung für gängige IDEs wie VS Code und die Cloud-Umgebung hinweg funktioniert. Entwickler können so nahtlos zwischen ihrer lokalen Umgebung und der Cloud wechseln, ohne den Kontext ihrer Arbeit zu verlieren. Die Integration in den Editor erlaubt es der KI, geöffnete Dateien oder markierten Code als Kontext zu nutzen, was kürzere Anfragen und schnellere Resultate ermöglicht. Diese tiefe Integration soll die Vision eines echten KI-Teamkollegen verwirklichen. Der Entwickler delegiert Aufgaben, und die KI arbeitet im Hintergrund, ohne dass ein ständiger Wechsel zwischen verschiedenen Anwendungen nötig ist. Die überarbeitete Kommandozeile erlaubt nun auch die Eingabe von Bildern wie Screenshots oder Diagrammen, um visuellen Kontext für Design-Entscheidungen zu liefern. Die gesamte Interaktion soll sich weniger wie die Bedienung eines Werkzeugs, sondern mehr wie die Zusammenarbeit mit einem Kollegen anfühlen. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG
    OpenAI hat GPT-5-Codex veröffentlicht, eine auf Softwareentwicklung spezialisierte Version von GPT-5.
    Das Modell agiert als autonomer „KI-Kollege“ und kann komplexe Aufgaben wie Code-Refactoring deutlich besser lösen als sein Vorgänger.
    Eine neue, tief integrierte Werkzeugkette verbindet Kommandozeile, IDEs und die Cloud für einen nahtlosen Arbeitsablauf.
    Die neue Code-Review-Funktion analysiert Code-Änderungen, führt Tests aus und findet kritische Fehler mit hoher Präzision.
    QUELLEN
    OpenAI
    TechCrunch
    VentureBeat
    All AI