Schlagwort: KIModell

  • Kleines Qwen-Modell schlägt großes Gemma 4

    Ein Qwen Baer

    Nano Banana

    Kurzfassung

    Quellen

    Qwen3.6-35B-A3B ist ein neues Mixture-of-Experts-Modell, das bei 35 Milliarden Gesamtparametern nur drei Milliarden Parameter aktiv nutzt.
    Trotz der Effizienz schlägt das System größere dichte Modelle beim Agentic Coding und liefert Spitzenwerte in etablierten Benchmarks.
    Das KI-Modell besitzt zudem starke multimodale Fähigkeiten, insbesondere bei der räumlichen Intelligenz.
    Entwickler können das System als Open Weights herunterladen oder direkt in Assistenten wie OpenClaw und Claude Code integrieren.

    Qwen Team – Qwen3.6-35B-A3B: Agentic Coding Power, Now Open to All

    Ein neues KI-Modell setzt derzeit Maßstäbe im Bereich des autonomen Programmierens. Mit Qwen3.6-35B-A3B steht ein System zur Verfügung, das bei komplexen Code-Aufgaben selbst wesentlich größere Konkurrenten hinter sich lässt. Die Besonderheit liegt dabei in der extremen strukturellen Effizienz. Kompakte Architektur dominiert Benchmarks Das Modell basiert auf einer Mixture-of-Experts-Architektur (MoE). Von den insgesamt 35 Milliarden Parametern aktiviert das System bei einer Anfrage lediglich drei Milliarden. Diese sparsame Arbeitsweise schont Rechnerressourcen erheblich, ohne Kompromisse bei der eigentlichen Denkleistung einzugehen. In etablierten Leistungstests übertrifft Qwen3.6-35B-A3B ältere und deutlich größere Modelle. Im anspruchsvollen »SWE-bench Verified« verzeichnet das KI-Modell einen Wert von 73,4 Punkten. Das Modell Gemma4-31B erreicht hier zum Vergleich lediglich 52,0 Punkte. Auch beim Terminal-Bench 2.0 setzt sich das neue System mit 51,5 Punkten souverän an die Spitze und lässt zudem den eigenen Vorgänger weit hinter sich. Die primären Stärken liegen im Agentic Coding. Das Modell führt nicht nur isolierte Code-Schnipsel aus, sondern plant und korrigiert Lösungswege eigenständig über mehrere Iterationen hinweg. Für solche komplexen Reasoning-Aufgaben liefert das System die Funktion »preserve_thinking«, welche den detaillierten Gedankengang über lange Chat-Verläufe hinweg aufrechterhält. + Quelle: Alibaba Visuelle Intelligenz auf hohem Niveau Neben der Verarbeitung von Text und Code verfügt das KI-Modell über weitreichende multimodale Fähigkeiten. Es analysiert Bilder sowie grafische Zusammenhänge mit hoher Präzision. In diversen Bild-Sprach-Tests operiert das System auf dem Leistungsniveau von Claude Sonnet 4.5. Die Daten offenbaren eine besondere Stärke im Bereich der räumlichen Intelligenz. Beim Benchmark RefCOCO erzielt das Modell starke 92,0 Punkte. Entwickler können somit visuelle Vorlagen oder Fehler-Screenshots direkt in den Programmier-Workflow einspeisen. Anzeige Nahtlose Integration für Entwickler Das KI-Modell wird der Community als Open Weights zur Verfügung gestellt. Der Download erfolgt über Plattformen wie Hugging Face oder ModelScope. Alternativ lässt sich das System über die Alibaba Cloud Model Studio API unter der Kennung »qwen3.6-flash« ansteuern. Für den produktiven Einsatz ist die Kompatibilität mit etablierten Coding-Assistenten bereits integriert. Das Modell lässt sich problemlos mit Tools wie OpenClaw, Qwen Code und Claude Code verknüpfen. Entwickler bedienen das System dadurch direkt aus der gewohnten Terminal-Umgebung heraus.

  • Anthropic integriert Claude als Add-in in Microsoft Word

    Anthropic bringt sein KI-Modell Claude direkt in Microsoft Word.

    Der Artikel Anthropic integriert Claude als Add-in in Microsoft Word erschien zuerst auf The Decoder.

  • HeyGen dominiert mit »Avatar V« die Benchmarks

    ein heygen 5 avatar

    Nano Banana

    Kurzfassung

    Quellen

    HeyGen veröffentlicht das neue KI-Modell Avatar V für die Erstellung digitaler Zwillinge.
    Die Software nutzt ein 15-sekündiges Video als Basis und verhindert so den typischen Identitätsverlust bei langen Laufzeiten.
    Ein technischer Bericht zeigt, dass Avatar V Konkurrenten wie Kling O3 Pro und Veo 3.1 in direkten Vergleichen deutlich schlägt.
    Das System erreicht in allen gemessenen Metriken, darunter Lippensynchronisation und Identitätswahrung, die Spitzenposition.

    HeyGen: Avatar V – The next generation of your digital self

    X: HeyGen Status Update

    X: Joshua Xu Status Update

    HeyGen veröffentlicht mit Avatar V ein völlig neues KI-Modell für digitale Zwillinge. Das System nutzt einen fortlaufenden Videokontext anstelle von Einzelfotos. In aktuellen Benchmarks deklassiert das KI-Modell namhafte Konkurrenten deutlich. Videokontext liefert stabile Identität Bisherige KI-Modelle generierten Avatare meistens auf Basis eines statischen Bildes. Avatar V wertet hingegen ein komplettes Kontextfenster aus einem simplen 15-sekündigen Webcam-Video aus. Das System erfasst so die natürliche Mimik, den Sprachrhythmus und komplexe Bewegungsmuster präzise. Ein selektiver Aufmerksamkeitsmechanismus filtert die besten Identitätssignale aus dem Material heraus. Das Modell blendet unscharfe oder schlecht beleuchtete Frames automatisch aus. So entsteht eine äußerst stabile Basis für dynamische Szenen mit wechselnden Kameraperspektiven. Diese Video-Architektur verhindert den berüchtigten »Identity Drift«. Bei älteren Systemen schwand die Ähnlichkeit zur Originalperson mit zunehmender Laufzeit. Avatar V hält die exakten Gesichtszüge auch bei Videos von über 30 Minuten Länge absolut stabil.

    Twitter Beitrag – Cookies links unten aktivieren.

    Introducing Avatar V. We’ve solved character consistency. Forever. Record yourself once for 15 seconds. From there, you can show up anywhere, in any look, and it still feels like you. Any photo becomes a video that looks, moves, and speaks like you, down to your mannerisms and… pic.twitter.com/qQsWlRoOkw — Joshua Xu (@joshua_xu_) April 8, 2026 Sieg im direkten Benchmark-Vergleich Ein aktueller technischer Bericht liefert konkrete Zahlen zur Leistungsfähigkeit des KI-Modells. Im etablierten MOS-Vergleich erreicht Avatar V den Spitzenwert von 4,98 Punkten bei der Identitätswahrung. Die phonemgenaue Lippensynchronisation sichert sich mit 4,69 Punkten ebenfalls den ersten Platz. Das System belegt in allen sechs gemessenen Kategorien die klare Spitzenposition. + Quelle: HeyGen Die technische Überlegenheit zeigt sich besonders in der direkten Gegenüberstellung mit anderen KI-Modellen. Im Duell mit Kling O3 Pro bevorzugen die Tester Avatar V in 69,6 Prozent der Fälle. Im Vergleich mit Veo 3.1 gewinnt das neue Modell sogar in 72,5 Prozent der Testläufe. Gegenüber OmniHuman 1.5 liegt die Siegquote bei beeindruckenden 85,7 Prozent. Anwender erhalten somit eine verlässliche Lösung für professionelle Videoproduktionen ohne teure Studioaufnahmen. + Quelle: HeyGen Anzeige

  • Nach Anthropic soll auch OpenAI Zugang zu neuem KI-Modell aus Sicherheitsgründen beschränken

    Auch OpenAI arbeitet laut Axios an einem neuen KI-Modell mit fortgeschrittenen Cybersicherheits-Fähigkeiten, das nur einer kleinen Gruppe von Unternehmen zugänglich gemacht werden soll.

    Der Artikel Nach Anthropic soll auch OpenAI Zugang zu neuem KI-Modell aus Sicherheitsgründen beschränken erschien zuerst auf The Decoder.

  • Muse Spark: Meta stellt neues KI-Modell vor und will „persönliche Superintelligenz“ skalieren

    Meta Superintelligence Labs veröffentlicht mit Muse Spark sein erstes Frontier-Modell. Es ist Metas erstes KI-Modell ohne offene Gewichte und schließt laut unabhängigen Tests den Abstand zur Konkurrenz von OpenAI und Co.

    Der Artikel Muse Spark: Meta stellt neues KI-Modell vor und will „persönliche Superintelligenz“ skalieren erschien zuerst auf The Decoder.

  • Das KI-Modell GEN-1 bringt Robotern das Improvisieren bei

    Roboter mit Gen-1

    Nano Banana

    Kurzfassung

    Quellen

    Das KI-Unternehmen Generalist AI hat das neue multimodale KI-Modell GEN-1 für die Robotik vorgestellt.
    Die Modelle erreichen bei physischen Aufgaben wie dem Falten von Kartons eine Erfolgsquote von 99 Prozent.
    Dank einer neuen Trainingsmethode agiert GEN-1 dreimal schneller als sein Vorgänger und kann Fehler in Echtzeit selbstständig korrigieren.

    Generalist AI Blog: GEN-1: Scaling Embodied Foundation Models to Mastery

    YouTube: Introducing GEN-1

    Das KI-Unternehmen Generalist AI präsentiert mit GEN-1 ein neues multimodales KI-Modell für die Robotik. Das Modell erreicht bei physischen Aufgaben eine Erfolgsquote von 99 Prozent und bringt Handlungsfähigkeit in komplexe Umgebungen.

    Höhere Geschwindigkeit und Präzision GEN-1 löst eine zentrale Herausforderung der Robotik: die langsame Ausführung von Aufgaben. Das KI-Modell agiert im Durchschnitt dreimal schneller als bisherige Spitzenreiter. Für das Falten eines Kartons benötigt das Modell beispielsweise lediglich 12,1 Sekunden. Das Vorgängermodell GEN-0 brauchte für denselben Vorgang noch rund 34 Sekunden. + Quelle: Generalist Gleichzeitig steigt die Zuverlässigkeit der Modelle deutlich. Bei filigranen Tätigkeiten wie dem Verpacken von Smartphones oder der Wartung von Saugrobotern erzielt GEN-1 konsistent Erfolgsquoten von 99 Prozent. Zum Vergleich lieferte der Vorgänger bei ähnlichen Arbeiten eine durchschnittliche Rate von 64 bzw.50 Prozent. Ohne vorheriges Pre-Training scheitern unvorbereitete Modelle meist sogar komplett. + + Quelle: Generalist Improvisation statt starrem Skript Herkömmliche Industrieroboter stoppen sofort bei Abweichungen vom strikt programmierten Ablauf. GEN-1 reagiert hingegen flexibel auf unvorhergesehene Veränderungen in der Umgebung. Verrutscht eine kleine Unterlegscheibe, erkennt das KI-Modell das Problem visuell. Es passt den Griff an oder nutzt spontan die zweite Hand für die korrekte Positionierung. Diese Fähigkeit zur Improvisation basiert auf einem tiefen Verständnis physikalischer Gesetzmäßigkeiten. Fällt ein Gegenstand aus der Hand, greifen die mechanischen Finger in Echtzeit nach, um den Fall abzufangen. In einem Versuch rüttelt das KI-Modell sogar selbstständig an einer Plastiktüte, um ein Plüschtier vollständig hineingleiten zu lassen. Entwickler programmieren solche spezifischen Korrekturbewegungen nicht mehr explizit vor. Anzeige Daten aus der realen Welt Die Basis für diesen Fortschritt bilden neuartige Trainingsmethoden. Generalist AI verzichtet für das Basis-Training vollständig auf teure Teleoperation oder rein simulierte Datensätze. Das KI-Modell lernt stattdessen im Vorfeld aus 500.000 Stunden menschlicher Interaktion. Spezielle tragbare Sensoren erfassen diese feingliedrigen Bewegungsdaten direkt an menschlichen Händen. Um eine völlig neue physische Aufgabe zu erlernen, benötigt GEN-1 anschließend nur noch eine einzige Stunde an spezifischen Roboterdaten. Das senkt den Aufwand für die Adaption an neue Hardware drastisch. Weg in die wirtschaftliche Anwendung Die Kombination aus hohem Tempo, Ausfallsicherheit und spontaner Fehlerkorrektur öffnet neue Optionen für die kommerzielle Robotik. Die Modelle erreichen erstmals Leistungsniveaus, die den Einsatz außerhalb stark kontrollierter Fabrikhallen wirtschaftlich attraktiv machen. Dadurch lassen sich mechanische Helfer zunehmend in dynamischen Arbeitsumgebungen einsetzen.

  • Gemini-Update integriert Soforthilfe für mentale Krisen

    3 Frauen in einem Gespräch

    Nano Banana

    Kurzfassung

    Quellen

    Gemini erhält ein neues One-Touch-Interface für den direkten Kontakt zu Krisen-Hotlines in psychischen Ausnahmesituationen.
    Ein globales Förderprogramm stellt in den nächsten drei Jahren weltweit 30 Millionen US-Dollar für Hilfsorganisationen bereit.
    ReflexAI nutzt das KI-Modell zukünftig für realitätsnahe Trainingssimulationen von Hotline-Personal.
    Spezielle Schutzmechanismen verhindern aktiv, dass das Modell emotionale Abhängigkeiten erzeugt oder gefährliche Überzeugungen bestätigt.

    Google Blog: An update on our mental health work

    YouTube: AI & Mental Health

    Ein neues Update bringt ein vereinfachtes One-Touch-Interface für das KI-Modell Gemini. Das Feature verbindet Nutzer in akuten mentalen Krisen sofort mit entsprechenden Hilfsangeboten. Ein globales Förderprogramm über 30 Millionen US-Dollar flankiert die Funktion. Schneller Zugang zur Notfallhilfe Gemini erhält das überarbeitete Modul »Help is available« für den Bereich der mentalen Gesundheit. Erkennt das KI-Modell konkrete Anzeichen für Suizidgedanken oder mögliche Selbstverletzung, erscheint ein neues Interface auf dem Bildschirm. Nutzer können über diese Schnittstelle mit einem einzigen Tippen direkten Kontakt zu Krisen-Hotlines aufnehmen. Sie haben dabei die Wahl zwischen einem Chat, einem Anruf, einer Textnachricht oder dem Besuch der entsprechenden Webseite. Die Option für das Einschalten professioneller Hilfe bleibt ab diesem Moment während der gesamten Unterhaltung deutlich sichtbar.

    Millionen-Förderung für globale Organisationen Neben den technischen Anpassungen am Modell fließen in den kommenden drei Jahren weltweit 30 Millionen US-Dollar in den Ausbau diverser Notfall-Hotlines. Die Gelder sollen die Kapazitäten der Hilfsorganisationen für eine sichere Betreuung spürbar erweitern. Zusätzlich geht eine Direktfinanzierung in Höhe von 4 Millionen US-Dollar an das Projekt ReflexAI. Das Unternehmen integriert Gemini direkt in seine eigene Trainings-Suite. Mit realitätsnahen KI-Simulationen schult die Plattform fortan das Personal für kritische Gespräche am Telefon. Bildungseinrichtungen wie Erika’s Lighthouse oder Educators Thriving gehören zu den ersten Partnern dieser neuen Ausbaustufe. Anzeige Schutzmechanismen im KI-Modell Spezielle Richtlinien trainieren Gemini speziell für den Umgang mit psychischen Ausnahmesituationen. Das KI-Modell priorisiert bei den Antworten stets die menschliche Verbindung und vermeidet strikt die Bestätigung schädlicher Verhaltensweisen. Stattdessen trennt das Modell subjektive Erfahrungen sanft von objektiven Fakten. Parallel greifen harte Schutzfunktionen für Minderjährige. Gemini agiert bewusst nicht als menschlicher Begleiter und blockiert jede Sprache, die emotionale Abhängigkeit oder gar Intimität simuliert. Nutzer finden die neuen Funktionen ab sofort in der Benutzeroberfläche.

  • Alibaba dominiert OpenRouter mit neuem Token-Rekord

    Ein Pandabaer mit Krabbenelementen und Feuerwerk

    Nano Banana

    Kurzfassung

    Quellen

    Das KI-Modell Qwen 3.6 Plus hat auf OpenRouter einen historischen Meilenstein erreicht.
    Es verarbeitete als erstes Modell über 1,4 Billionen Token an einem einzigen Tag.
    Dies markiert den stärksten Start eines neuen Systems im laufenden Jahr.

    OpenRouter auf X: Qwen 3.6 Plus Token Milestone

    Das KI-Modell Qwen 3.6 Plus von Alibaba stellt auf der Plattform OpenRouter einen neuen Nutzungsrekord auf. Als erstes Modell überschritt es die Marke von einer Billion verarbeiteten Token innerhalb eines einzigen Tages.

    Twitter Beitrag – Cookies links unten aktivieren.

    Qwen 3.6 Plus from @Alibaba_Qwen is officially the first model on OpenRouter to break 1 Trillion tokens processed in a single day! At ~1,400,000,000,000 tokens, it’s the strongest full day performance of any new model dropped this year. Congrats to the Qwen team! pic.twitter.com/uo5ElnhzUn — OpenRouter (@OpenRouter) April 4, 2026 Stärkster Tagesstart des Jahres Mit exakt 1,4 Billionen abgerufenen Token übertrifft die neue Version die bisherigen Spitzenwerte deutlich. OpenRouter bestätigt diese Zahlen und ordnet die Leistung als den erfolgreichsten 24-Stunden-Start aller in diesem Jahr veröffentlichten KI-Modelle ein. Das System von Alibaba zeigt damit eine extrem hohe Stabilität bei enormer Auslastung. Anzeige Die enorme Auslastung resultiert offensichtlich aus komplexen Entwicklungsaufgaben. Qwen 3.6 Plus agiert als eigenständiger Agent für die Programmierung und überschaut ein Kontextfenster von einer Million Token. Die Architektur bearbeitet selbstständig Aufgaben, die von der Erstellung einzelner Frontend-Komponenten bis zur gezielten Fehlersuche in großen Code-Repositories reichen. Die hohe Token-Anzahl unterstreicht die wachsende Bedeutung offener Modelle für rechenintensive Aufgaben. Die Entwickler-Community adaptiert die neue Version außergewöhnlich schnell. OpenRouter festigt durch dieses Volumen gleichzeitig seine Position als relevanter Knotenpunkt für den Zugriff auf modernste KI-Modelle.

    Top News
    Qwen3.6-Plus dominiert Programmier-Benchmarks
    Die Architektur bietet ein Kontextfenster von einer Million Token und löst komplexe Entwicklungsaufgaben autonom.

  • Qwen3.6-Plus: Alibaba stellt neues proprietäres KI-Modell für Entwickler vor

    Alibaba hat mit Qwen3.6-Plus sein drittes proprietäres KI-Modell innerhalb weniger Tage veröffentlicht.

    Der Artikel Qwen3.6-Plus: Alibaba stellt neues proprietäres KI-Modell für Entwickler vor erschien zuerst auf The Decoder.

  • Claude erstellt Exploits für Texteditoren

    Dario Amodei mit Claude Code

    Nano Banana

    Kurzfassung

    Quellen

    Das KI-Modell Claude hat funktionsfähige RCE-Exploits für die Texteditoren Vim und Emacs generiert.
    Sicherheitsforscher von Calif nutzten gezielte Prompts über angebliche Zero-Day-Lücken, um die Schutzmechanismen der KI zu umgehen.
    Für Vim steht die gepatchte Version 9.2.0272 bereit, während die Emacs-Entwickler auf Git verweisen.

    MAD Bugs: vim vs emacs vs Claude

    Vim tabpanel modeline escape affects Vim < 9.2.0272

    Vim v9.2.0272 Release

    GNU Emacs: Multiple Remote Code Execution Vectors on File Open

    Calif-Post auf X zum Fund

    Das KI-Modell Claude hat im Auftrag der Sicherheitsforscher von Calif kritische Remote-Code-Execution-Schwachstellen in den Texteditoren Vim und Emacs aufgespürt. Die KI lieferte auf Zuruf funktionsfähige Exploits, die Schadcode bereits beim Öffnen einer manipulierten Datei ausführen. Gezielte Prompts hebeln Schutzmechanismen aus Die Analysten konfrontierten das Modell mit dem fiktiven Gerücht, es existiere ein unbekannter Zero-Day-Exploit. Claude untersuchte daraufhin den Quellcode sowie die jüngsten Änderungen der Open-Source-Editoren. Kurz darauf präsentierte das KI-Modell einen funktionierenden Angriffsweg. Bei Vim führt eine Verkettung von zwei Bugs zur Ausführung des Schadcodes. Das bloße Laden einer speziell präparierten Datei reicht aus, um unbemerkt Betriebssystembefehle auf dem Zielrechner zu starten. Die Entwickler haben zügig reagiert und die Schwachstelle behoben. Die offizielle Sicherheitsmeldung dokumentiert die Details zum Exploit. Der sichere Patch steht für alle Nutzer in der Version 9.2.0272 bereit. Anzeige Emacs-Maintainer weisen Verantwortung ab Nach dem erfolgreichen Test bei Vim wandten die Forscher das gleiche Vorgehen bei GNU Emacs an. Der Prompt an Claude beinhaltete erneut die Behauptung über eine RCE-Schwachstelle beim Laden einer simplen Textdatei. Auch hier analysierte das Modell den Code und fand einen entsprechenden Pfad zur Ausführung. Dieser zweite Exploit erfordert für einen erfolgreichen Angriff allerdings bestimmte Voraussetzungen. Er funktioniert ausschließlich im Zusammenspiel mit Git und einem manipulierten Verzeichnis. Aus diesem Grund lehnen die Emacs-Maintainer eine direkte Behebung im Editor ab und machen die Git-Entwickler für die eigentliche Ursache verantwortlich. Die aktuellen Erkenntnisse bilden den Auftakt der Publikationsreihe »MAD Bugs«. Die Analysten von Calif kündigten an, in den kommenden Wochen weitere KI-gestützte Bugfunde detailliert zu dokumentieren.