Schlagwort: Pro

  • OpenAIs GPT-5.4 Pro löst offenbar eigenständig offenes Mathematikproblem Erdős #1196

    GPT-5.4 Pro löst ein offenes Erdős-Problem in 80 Minuten. Terence Tao sieht darin einen sinnvollen Beitrag zur Mathematik.

    Der Artikel OpenAIs GPT-5.4 Pro löst offenbar eigenständig offenes Mathematikproblem Erdős #1196 erschien zuerst auf The Decoder.

  • „Mirage-Effekt“: KI-Modelle diagnostizieren Krankheiten auf Bildern, die nie existierten

    Multimodale KI-Modelle wie GPT-5, Gemini 3 Pro und Claude Opus 4.5 generieren detaillierte Bildbeschreibungen und medizinische Diagnosen, selbst wenn gar kein Bild vorliegt. Eine Stanford-Studie zeigt, dass gängige Benchmarks das Problem verdecken.

    Der Artikel „Mirage-Effekt“: KI-Modelle diagnostizieren Krankheiten auf Bildern, die nie existierten erschien zuerst auf The Decoder.

  • GitHub Copilot nutzt ab April Nutzerdaten für KI-Training

    GitHub ändert ab dem 24. April 2026 seine Datenrichtlinie für Copilot. Interaktionsdaten von Nutzern der Tarife Free, Pro und Pro+ werden künftig zum Training von KI-Modellen verwendet, sofern diese nicht aktiv widersprechen.

    Der Artikel GitHub Copilot nutzt ab April Nutzerdaten für KI-Training erschien zuerst auf The Decoder.

  • Neues KI-Modell von Google: Lyria 3 Pro generiert bis zu drei Minuten lange Songs

    Google macht KI-Musik länger und breiter verfügbar: Lyria 3 Pro erzeugt Songs mit bis zu drei Minuten Länge, inklusive Strophen, Refrains und Bridges. Laut Google wurde das Modell auf Inhalten trainiert, an denen es die entsprechenden Rechte hat – im Unterschied zum Musikgenerator Suno, der sich wegen möglicher Copyright-Verstöße mit Plattenfirmen vor Gericht streitet.

    Der Artikel Neues KI-Modell von Google: Lyria 3 Pro generiert bis zu drei Minuten lange Songs erschien zuerst auf The Decoder.

  • OpenAI bietet Open-Source-Entwicklern kostenlosen Zugang zu ChatGPT Pro und mehr

    OpenAI unterstützt Open-Source-Entwickler mit kostenlosem Zugang zu ChatGPT Pro, Codex und Sicherheits-Tools.

    Der Artikel OpenAI bietet Open-Source-Entwicklern kostenlosen Zugang zu ChatGPT Pro und mehr erschien zuerst auf The Decoder.

  • Gemini 3.1 Pro: Googles neues KI-Modell führt Benchmark-Index an und kostet nur ein Drittel der Konkurrenz

    Googles Gemini 3.1 Pro führt den Artificial Analysis Intelligence Index an und kostet dabei weniger als die Hälfte der Konkurrenz. Doch Benchmarks sind nicht alles.

    Der Artikel Gemini 3.1 Pro: Googles neues KI-Modell führt Benchmark-Index an und kostet nur ein Drittel der Konkurrenz erschien zuerst auf The Decoder.

  • Googles neues Sprachmodell deklassiert die Konkurrenz

    Ein Roboter zeigt Gemini 3.1 Pro

    Nano Banana

    Kurzfassung

    Quellen

    Google hat mit Gemini 3.1 Pro ein leistungsstarkes Sprachmodell für komplexe Logik- und Programmieraufgaben veröffentlicht.
    Das Update übertrifft in aktuellen Benchmarks sowohl seinen direkten Vorgänger als auch Modelle der Konkurrenz wie OpenAI und Anthropic.
    Besonders bei der abstrakten Problemlösung und der autonomen Code-Generierung zeigt die KI massive Verbesserungen.
    Die Vorschauversion ist ab sofort für Entwickler, Unternehmen und zahlende Privatnutzer mit Google AI Pro oder Ultra zugänglich.

    Google Blog: Gemini 3.1 Pro: A smarter model for your most complex tasks

    Google stellt mit Gemini 3.1 Pro ein überarbeitetes KI-Sprachmodell für anspruchsvolle Logik- und Programmieraufgaben vor. Das ab sofort verfügbare Update löst komplexe Probleme deutlich präziser als der Vorgänger und schlägt in den meisten Benchmarks auch die Konkurrenz von OpenAI und Anthropic. Fokus auf abstrakte Problemlösung Google positioniert das Modell gezielt für komplexe Anwendungsfälle. Die Entwickler haben die Fähigkeit der Software, eigenständige logische Schlüsse zu ziehen, tiefgreifend überarbeitet. Das Sprachmodell verarbeitet nun umfangreiche Datensätze strukturierter und setzt kreative Vorgaben direkter in funktionierenden Programmcode um. Als Beispiel nennt der Konzern die Aufgabe, die atmosphärische Stimmung eines Romans in das Design einer modernen Web-Oberfläche zu übersetzen – eine Anforderung, die das Modell nun laut Google ohne mühsame Zwischenschritte bewältigt. Die neue Architektur liefert zudem die technische Basis für das erst kürzlich vorgestellte Modell „Gemini 3 Deep Think“. Während sich dieser spezialisierte Ableger primär auf die wissenschaftliche Forschung konzentriert, integriert Google die grundlegenden Verbesserungen von Gemini 3.1 Pro nun in seine breiter aufgestellten Endkunden- und Entwicklerprodukte. Anzeige Leistungssprung in den Benchmarks Die technischen Fortschritte spiegeln sich deutlich in aktuellen Leistungstests wider. Beim anspruchsvollen Benchmark „ARC-AGI-2“, der die Fähigkeit zur Lösung völlig neuer Logikmuster bewertet, erreicht Gemini 3.1 Pro einen Wert von 77,1 Prozent. Damit verdoppelt das Modell das Ergebnis des Vorgängers Gemini 3 Pro (31,1 Prozent) und verweist Konkurrenten wie Opus 4.6 (68,8 Prozent) sowie GPT-5.2 (52,9 Prozent) auf die hinteren Plätze. Ähnlich dominant zeigt sich die KI beim Test „Humanity’s Last Exam“ für akademisches Denken, wo sie ohne zusätzliche Hilfsmittel 44,4 Prozent erzielt und damit sowohl das eigene Vorgängermodell als auch die Top-Modelle der Mitbewerber übertrifft. Auch bei der Code-Generierung und der autonomen Websuche verzeichnet Google messbare Zuwächse. Im Bereich des kompetitiven Programmierens („LiveCodeBench Pro“) steigert sich Gemini 3.1 Pro auf ein Elo-Rating von 2887 und lässt GPT-5.2 (2393) deutlich hinter sich. Bei autonomen Suchaufgaben („BrowseComp“) erreicht das neue Modell 85,9 Prozent und schlägt Opus 4.6 (84,0 Prozent) knapp. Lediglich beim „SWE-Bench Verified“ für agentenbasiertes Programmieren ordnet sich die Google-KI mit 80,6 Prozent minimal hinter Opus 4.6 (80,8 Prozent) ein, verbessert sich aber spürbar gegenüber der Version 3 Pro. + Quelle: Google Verfügbarkeit und Zielgruppen Entwickler greifen ab sofort über das Google AI Studio und „Google Antigravity auf die 3.1er Version zu. Für den Einsatz im professionellen Umfeld steht das Modell in Vertex AI sowie Gemini Enterprise bereit. Privatnutzer erhalten ebenfalls Zugang, sofern sie ein kostenpflichtiges Abonnement besitzen. Gemini 3.1 Pro wird aktuell mit höheren Nutzungslimits in der Gemini-App sowie in NotebookLM für Kunden der Tarife Google AI Pro und Ultra ausgerollt.

  • Google veröffentlicht Gemini 3.1 Pro und verspricht stärkere Reasoning-Leistung

    Mit Gemini 3.1 Pro will Google die Kernintelligenz seiner Modellfamilie deutlich verbessern. Auf einem anspruchsvollen Reasoning-Benchmark hat sich die Leistung im Vergleich zum Vorgänger mehr als verdoppelt. Allerdings sind Benchmarks nur eben diese.

    Der Artikel Google veröffentlicht Gemini 3.1 Pro und verspricht stärkere Reasoning-Leistung erschien zuerst auf The Decoder.

  • TikTok fordert mit Seed 2.0 ChatGPT und Gemini heraus.

    Ein Drache programmiert Seed 2.0

    Nano Banana

    Kurzfassung

    Quellen

    ByteDance hat mit Seed 2.0 (Doubao 2.0) eine neue Generation großer KI-Sprachmodelle in den Varianten Pro, Lite und Mini veröffentlicht. Die Modelle zielen auf günstige Inferenzkosten ab und erreichen in Bereichen wie Programmierung und Mathematik Benchmark-Werte auf dem Niveau von GPT-5.2 und Gemini 3 Pro. Während die Pro-Version für komplexe, mehrstufige Logikaufgaben konzipiert ist, fokussiert sich das Mini-Modell auf hochfrequente Anfragen in Echtzeit. Spezielle Varianten wie Seed-Code sollen Entwickler künftig direkt in entsprechenden Programmierumgebungen bei der Arbeit unterstützen.

    Seed2.0 – ByteDance Seed (offizielle Modellseite)

    Seed2.0 Paper

    ByteDance hat mit Seed 2.0 eine neue Generation seiner großen Sprachmodelle veröffentlicht. Die Architektur erscheint in drei Varianten und verspricht Leistungsdaten auf dem Niveau aktueller Spitzenmodelle bei gleichzeitig drastisch gesunkenen Inferenzkosten. Anzeige Warum Seed 2.0 und Doubao 2.0 identisch sind Hinter den Bezeichnungen Seed 2.0 und Doubao 2.0 verbirgt sich exakt dieselbe technische Basis. Während ByteDance den Namen Doubao vorrangig für den chinesischen Heimatmarkt und die eigenen Endkunden-Anwendungen nutzt, richtet sich die Marke Seed an die internationale Entwickler-Community. Das Unternehmen reagiert mit der neuen Generation auf den Trend zu agentenbasierter KI, bei der Modelle komplexe, mehrstufige Arbeitsabläufe autonom abarbeiten. KI-Agenten sollen künftig selbstständig Recherchen im Internet durchführen, externe Daten auslesen oder Dokumente in strukturierte Tabellen überführen. Die Modellfamilie gliedert sich in die drei Abstufungen Pro, Lite und Mini. Diese Segmentierung ist branchenüblich und erlaubt es Entwicklern, je nach Anwendungsfall zwischen maximaler Leistung und minimaler Latenz zu wählen. Die Pro-Version zielt auf tiefgreifende Logik, die Lite-Version bildet den Allrounder für den Alltag, und die Mini-Version ist für hochfrequente Anfragen mit extrem kurzer Reaktionszeit konzipiert. Im direkten Vergleich zu Konkurrenten wie OpenAI, Google oder Anthropic positioniert sich ByteDance über eine sehr aggressive Preisgestaltung. Das Ziel ist es, den Markt für API-Schnittstellen durch geringe Hardwarekosten bei gleichzeitig hoher Rechenleistung zu dominieren. + Quelle: all-ai.de Seed 2.0 Pro: Architektur und Besonderheiten Das Spitzenmodell Seed 2.0 Pro ist für tiefe logische Schlussfolgerungen und die Ausführung langer Aufgabenketten konzipiert. Die Architektur ist laut dem veröffentlichten Bericht darauf ausgelegt, multimodale Eingaben effizienter zu verarbeiten als die Vorgängergeneration. Ein zentrales Merkmal ist die Fähigkeit zur Test-Time-Compute-Skalierung, bei der das Modell dynamisch mehr Rechenzeit aufwendet und mehrere Lösungswege intern bewertet, bevor es ein Ergebnis ausgibt. Ein Anwendungsbeispiel des Herstellers zeigt die multimodalen Fähigkeiten in Echtzeit. In einem Demonstrationsvideo wertet das Modell den Live-Feed einer Smartphone-Kamera aus, die eine Person beim Krafttraining im Fitnessstudio filmt. Die Software analysiert die Bewegungsabläufe, erkennt Fehlhaltungen und gibt über eine synthetische Sprachausgabe direkte Korrekturanweisungen, ähnlich einem menschlichen Trainer. In der Praxis muss sich zeigen, wie fehlerfrei diese Bildauswertung bei schlechten Lichtverhältnissen oder komplexen Übungen funktioniert. Quelle: ByteDance Ein weiteres Beispiel demonstriert die automatisierte Webentwicklung durch das Modell. Auf Basis einer groben Textbeschreibung generiert die KI-Schnittstelle nicht nur den zugrundeliegenden HTML- und CSS-Code, sondern erstellt ein vollständiges, visuell ansprechendes Seitenlayout. Der Algorithmus platziert dabei selbstständig Platzhalter für Bilder, strukturiert Navigationsmenüs und passt das Design an mobile Endgeräte an. Entwickler lagern damit zeitintensive Routineaufgaben aus, müssen den generierten Code jedoch zwingend auf Sicherheitslücken und Effizienz prüfen. Aus einem einfachen Prompt mit 3 Sätzen ist folgende Webseite voll funktionsfähig enstanden: + Quelle: bytedance Seed 2.0 Pro im Benchmark-Vergleich In den Disziplinen Programmierung und autonome Agenten ordnet sich Seed 2.0 Pro knapp hinter den absoluten Spitzenreitern ein. Beim SWE-Bench (Verified), der die Lösung echter Softwareprobleme misst, erreicht das Modell 76,5 Prozent und schlägt damit Googles Gemini 3 Pro (76,2 Prozent) hauchdünn, bleibt aber hinter GPT-5.2 (80,0 Prozent) zurück. Bei der Ausführung von Befehlsketten in Kommandozeilen-Umgebungen, abgebildet durch den Terminal-Benchmark, zeigt sich ein ähnliches Bild. Hier erzielt die ByteDance-KI solide 55,8 Prozent, muss sich jedoch sowohl Gemini 3 Pro (56,9 Prozent) als auch dem Spitzenreiter GPT-5.2 (62,4 Prozent) geschlagen geben. + Quelle: bytedance Bei allgemeinen Leistungstests für Naturwissenschaften und Mathematik liefert das Modell ein gemischtes, aber durchweg hohes Niveau. In der Disziplin Science (MMLU-Pro) erreicht Seed 2.0 Pro 87,0 Prozent und übertrifft damit GPT-5.2 (85,9 Prozent), wird jedoch von Gemini 3 Pro mit herausragenden 97,1 Prozent deutlich distanziert. Ein anderes Kräfteverhältnis zeigt sich bei anspruchsvollen Mathematik-Prüfungen wie dem AIME 2026. Dort positioniert sich das ByteDance-System mit 94,2 Prozent knapp vor Gemini 3 Pro (93,3 Prozent), während OpenAI mit 97,5 Prozent den Referenzwert in diesem Testfeld vorgibt. Auch sonst können die Benchmarks größtenteils überzeugen: + Quelle: bytedance Seed 2.0 Lite: Der Kompromiss aus Leistung und Kosten Die Lite-Variante fungiert als Standardmodell für die meisten kommerziellen Anwendungen. Sie bietet einen Mittelweg aus Verarbeitungsgeschwindigkeit und logischer Tiefe. ByteDance gibt an, dass Seed 2.0 Lite die Gesamtleistung des bisherigen Hauptmodells Doubao 1.8 übersteigt, dabei aber deutlich weniger Rechenressourcen für die Inferenz benötigt. Anzeige In den veröffentlichten Benchmarks zeigt das Lite-Modell ein differenziertes Leistungsbild, besonders bei visuell gestützten Aufgaben. Beim Test MathVista, der das Verständnis von Diagrammen und mathematischen Grafiken prüft, erreicht Seed 2.0 Lite starke 89,0 Prozent. Damit liegt die kleinere Architektur fast exakt auf dem Niveau der hauseigenen Pro-Version (89,8 Prozent) sowie von Googles Gemini 3 Pro (89,8 Prozent) und übertrifft das Konkurrenzmodell GPT-5.2 (83,1 Prozent) messbar. Diese Zahlen signalisieren, dass das Modell bei klar strukturierten mathematischen Mustern kaum an Präzision einbüßt. Bei komplexeren visuellen Logikrätseln, wie sie der Benchmark ARC-AGI-2-Image abfragt, sinkt die Genauigkeit erwartungsgemäß. Hier erzielt das Lite-Modell 28,3 Prozent und ordnet sich mit deutlichem Abstand hinter Seed 2.0 Pro (43,3 Prozent) und dem Spitzenreiter GPT-5.2 (54,4 Prozent) ein. Bemerkenswert ist in den Datensätzen jedoch, dass die ByteDance-KI in diesem spezifischen Testfeld das etablierte Gemini 3 Pro (21,5 Prozent) hinter sich lässt. Die Ergebnisse verdeutlichen, dass die Lite-Version für alltägliche Aufgaben ausreichend dimensioniert ist, bei tiefgreifender, mehrstufiger Bildlogik jedoch an ihre Systemgrenzen stößt. + Quelle: bytedance Seed 2.0 Mini und seine Benchmark-Ergebnisse Für Szenarien, in denen Millisekunden entscheiden, hat ByteDance das Seed 2.0 Mini entwickelt. Dieses Modell ist strikt auf geringe Latenz und hohe Parallelität getrimmt. Die Architektur zielt auf Echtzeit-Übersetzungen, einfache Klassifizierungsaufgaben und die blitzschnelle Autovervollständigung von Code oder Texten ab. Ein Blick auf die konkreten Leistungsdaten offenbart ein gemischtes Bild: Bei anspruchsvollen mathematischen Problemen, gemessen im AIME 2026 Benchmark, erzielt das Seed 2.0 Mini einen soliden Wert von 86,7 Punkten. Damit liegt es zwar in Schlagdistanz zu seinem größeren Bruder, dem Seed 2.0 Lite (88,3), muss sich aber den direkten Konkurrenten GPT-5-mini High (92,5) und Gemini-3-Flash High (93,3) geschlagen geben. Anzeige Überraschend stark zeigt sich das Mini-Modell hingegen beim Programmieren. Im LiveCodeBench (v6) übertrifft das Seed 2.0 Mini mit 64,1 Punkten sogar das GPT-5-mini High (62,6). Auch wenn Gemini-3-Flash High (84,7) und das etwas größere Seed 2.0 Lite (81,7) hier noch einmal in einer ganz anderen Liga spielen, ist das für ein derart auf Latenz getrimmtes Modell ein beachtlicher Wert. Trotz der sehr hohen Kosteneffizienz – ByteDance beziffert den Preis für eine Million generierte Token auf lediglich 0,31$ – müssen Serverbetreiber Kompromisse bei der Zuverlässigkeit eingehen. Dass die Fehleranfälligkeit bei dieser reduzierten Architektur signifikant ansteigt, belegt der FactScore-Benchmark, der die Neigung zu Halluzinationen und Faktenfehlern misst. Hier bricht das Seed 2.0 Mini mit lediglich 50,4 Punkten massiv ein. + Quelle: bytedance Spezialisierte Modelle und das Ökosystem Neben den Allzweckmodellen listet die Modellübersicht der Seed-Familie auch spezialisierte Varianten wie „Doubao-Seed-Code“ auf. Das offizielle Datenblatt bestätigt die strategische Entwicklung dedizierter „Seed-Coder“-Modelle, die gezielt auf die Verarbeitung von Quellcode nachtrainiert wurden. Moderne Softwareentwicklung stützt sich zunehmend auf solche Assistenten, um Abhängigkeiten in großen Projekten zu analysieren und Syntaxfehler frühzeitig zu erkennen. Darüber hinaus deutet die veröffentlichte Dokumentation auf eine tiefere Verzahnung im Bereich der generativen Medien hin. Sprachmodelle wie Seed 2.0 dienen zunehmend als logische Steuerungszentrale, um multimodale Eingaben zu verarbeiten und komplexe Systeme für Bild- oder Videogenerierung zu koordinieren. Damit erscheint nach den aktuellen Versionen von GLM-5 und MiniMax 2.5 innerhalb weniger Tage das dritte sehr starke und günstige chinesische Modell auf dem Markt.

    Top News
    MiniMax M2.5 auf US-Niveau bei 10x günstigerem Preis
    Mit dem neuen Sprachmodell profitieren Entwickler von hoher Inferenzgeschwindigkeit und deutlichen Einsparungen bei komplexen Software-Aufgaben.

  • Qwen3-Max-Thinking schlägt GPT-5.2 und Gemini 3 Pro

    Ein Bär und qwen3-max thinking als Lehrbuch

    Alibaba

    Kurzfassung

    Quellen

    Alibaba veröffentlicht mit Qwen3-Max-Thinking ein neues KI-Modell, das in Mathematik- und Coding-Benchmarks die US-Konkurrenz GPT-5.2 und Gemini 3 Pro übertrifft. Das Modell nutzt eine „System 2“-Architektur für tiefere logische Schlussfolgerungen, ähnlich der o-Serie von OpenAI. Im Gegensatz zu den geschlossenen US-Modellen ist Qwen3 als offene Variante verfügbar, was lokalen Betrieb und mehr Unabhängigkeit ermöglicht.

    Alibaba Qwen3 Max Thinking Release

    Qwen Ankündigung auf X

    Der chinesische Tech-Gigant Alibaba hat heute mit „Qwen3-Max-Thinking“ sein bisher leistungsstärkstes KI-Modell veröffentlicht und zielt damit direkt auf die Vormachtstellung der US-Firmen. Für Entwickler und Unternehmen bedeutet dies eine Zäsur: Das neue Modell erreicht in entscheidenden Benchmarks nicht nur das Niveau von GPT-5.2 und Gemini 3 Pro, sondern übertrifft diese teilweise. Wachablösung an der Leistungsspitze Lange Zeit galten die Modelle von OpenAI und Google als unantastbar. Die neuesten Benchmark-Ergebnisse zeichnen jedoch ein anderes Bild. In der prestigeträchtigen Disziplin „GPQA Diamond“, die Expertenwissen auf PhD-Niveau abfragt, erzielt Qwen3-Max-Thinking einen Wert von 92,8 Punkten. Damit lässt es sowohl GPT-5.2 (92,4) als auch Googles Gemini 3 Pro (91,9) hinter sich. Besonders deutlich wird der Vorsprung bei komplexer Mathematik. Im „IMO-AnswerBench“, der Aufgaben der Internationalen Mathematik-Olympiade simuliert, erreicht das chinesische Modell 86,3 Punkte, während Gemini 3 Pro bei 83,3 und Claude-Opus-4.5 bei 84,0 liegen. Alibaba beweist damit, dass chinesische Spitzenmodelle den bloßen Kopiermodus verlassen haben und nun technologisch vorlegen. + Quelle: Alibaba Reasoning-Fähigkeiten im Fokus Der Namenszusatz „Thinking“ verrät die technische Ausrichtung. Das Modell antwortet nicht sofort reflexartig, sondern schaltet einen internen Denkprozess vor, um komplexe logische Ketten zu prüfen. Dieser Ansatz zahlt sich besonders bei der Programmierung aus. Im „Arena-Hard v2“-Benchmark, der die Bewältigung schwieriger realer Coding-Probleme misst, dominiert Qwen mit 90,2 Punkten das Feld deutlich gegenüber Claude-Opus-4.5 (76,7) und liegt gleichauf mit spezialisierten US-Modellen. Für Software-Ingenieure, die bisher auf westliche APIs angewiesen waren, eröffnet sich hier eine ernstzunehmende Alternative. + Quelle: Alibaba Anzeige Offene Gewichte als Strategiewechsel Der entscheidende Unterschied liegt jedoch nicht nur in den Rohdaten, sondern in der Verfügbarkeit. Während GPT-5.2 und Gemini 3 Pro als reine API-Produkte in den Cloud-Ökosystemen ihrer Hersteller eingesperrt bleiben, setzt Alibaba seine Strategie der offenen Verfügbarkeit fort. Qwen3-Max-Thinking ist „nicht geschlossen“. Das bedeutet in der Praxis oft, dass die Modellgewichte unter Lizenzen verfügbar gemacht werden, die eine lokale Ausführung oder das Hosting auf eigenen Servern erlauben. Für europäische Unternehmen, die unter strengen Datenschutzauflagen arbeiten, ist dies ein gewichtiges Argument. Man holt sich die Intelligenz ins eigene Haus, statt Daten in eine Blackbox zu senden. Grenzen und Konkurrenz Trotz der beeindruckenden Werte ist das Rennen nicht gelaufen. In Tests zum allgemeinen Weltwissen wie „MMLU-Pro“ liegt Gemini 3 Pro mit 89,8 Punkten weiterhin knapp vor Qwen (85,7). Das deutet darauf hin, dass Google in der Breite der Trainingsdaten noch Vorteile besitzt, während Alibaba bei der logischen Tiefe aufgeholt hat. Zudem zeigt der Vergleich mit DeepSeek V3.2, dass auch innerhalb Chinas ein harter Wettbewerb um die Krone der künstlichen Intelligenz entbrannt ist.