Schlagwort: Alibaba

  • Alibaba veröffentlicht effizientes Open-KI-Modell Qwen3.6-35B-A3B

    Chromatisches Glitch-Muster aus überlappenden Hexagrammen, das durch RGB-Farbverschiebungen einen lebendigen Retro-Futurismus vermittelt.

    Alibaba legt mit Qwen3.6-35B-A3B nach: Das neue Open-Source-Modell aktiviert nur drei von 35 Milliarden Parametern und schlägt damit laut Benchmarks Googles deutlich größeres Gemma 4-31B beim Programmieren und Schlussfolgern.

    Der Artikel Alibaba veröffentlicht effizientes Open-KI-Modell Qwen3.6-35B-A3B erschien zuerst auf The Decoder.

  • Qwen3.6-Plus: Alibaba stellt neues proprietäres KI-Modell für Entwickler vor

    Alibaba hat mit Qwen3.6-Plus sein drittes proprietäres KI-Modell innerhalb weniger Tage veröffentlicht.

    Der Artikel Qwen3.6-Plus: Alibaba stellt neues proprietäres KI-Modell für Entwickler vor erschien zuerst auf The Decoder.

  • Sehen, hören, coden: Alibabas Qwen3.5-Omni macht alles gleichzeitig

    Werbegrafik von Alibaba zeigt zwei Teddybären in traditioneller chinesischer Kleidung. Der linke Bär sitzt am Schreibtisch vor einem Monitor und repräsentiert Qwen3.5-Omni-Plus mit Funktionen wie SOTA Performance, Detailed Audio-Visual Captioning, Native Multimodal und Extensive Multilingual. Der rechte Bär hält ein Smartphone und steht für Qwen3.5-Omni-Plus-Realtime mit Voice Control, WebSearch Tool, Voice Clone und Semantic Interruption.

    Alibaba veröffentlicht Qwen3.5-Omni, ein omnimodales KI-Modell mit Text-, Bild-, Audio- und Videoverständnis. Es soll Gemini 3.1 Pro bei Audio-Aufgaben übertreffen und beherrscht eine neue Fähigkeit: Programmieren per gesprochener Anweisung und Videoinput.

    Der Artikel Sehen, hören, coden: Alibabas Qwen3.5-Omni macht alles gleichzeitig erschien zuerst auf The Decoder.

  • Alibaba gründet „Token Hub“: Neue KI-Sparte soll Forschung, Apps und Geräte unter einem Dach vereinen

    Alibaba bündelt seine KI-Aktivitäten in einer neuen Geschäftseinheit namens „Alibaba Token Hub“ (ATH), die CEO Eddie Wu direkt leitet, berichtet Bloomberg.

    Der Artikel Alibaba gründet „Token Hub“: Neue KI-Sparte soll Forschung, Apps und Geräte unter einem Dach vereinen erschien zuerst auf The Decoder.

  • Alibabas offene Qwen-3.5-Modellreihe liefert mehr Leistung bei weniger Rechenaufwand

    Alibaba hat die neue Qwen-3.5-Modellreihe vorgestellt. Sie umfasst vier Modelle: Qwen3.5-Flash, Qwen3.5-35B-A3B, Qwen3.5-122B-A10B und Qwen3.5-27B.

    Der Artikel Alibabas offene Qwen-3.5-Modellreihe liefert mehr Leistung bei weniger Rechenaufwand erschien zuerst auf The Decoder.

  • Qwen3.5 von Alibaba: Gigantisches Sprachmodell für lokale KI-Agenten

    Ein KI-Agenten-Bär programmiert

    Nano Banana

    Kurzfassung

    Quellen

    Alibaba hat mit Qwen3.5-397B-A17B ein gewaltiges Open-Weight-Modell für autonome KI-Agenten veröffentlicht.
    Die Software verarbeitet Texte, Bilder und hochauflösende Videos nativ in einem einzigen neuronalen Netz.
    Dank der effizienten Mixture-of-Experts-Architektur bleiben die reinen Rechenanforderungen während der Texterstellung im Rahmen.
    In ersten Benchmarks schließt das lizenzfreie System eindrucksvoll zu führenden geschlossenen Modellen auf.

    Offizieller Blog: Qwen3.5: Towards Native Multimodal Agents

    GitHub Qwen3.5

    Alibaba veröffentlicht Qwen3.5: Erstes Open-Weight-Modell mit Fokus auf KI-Agenten Alibaba hat mit Qwen3.5-397B-A17B das erste Open-Weight-Modell der neuen Generation unter der Apache-2.0-Lizenz veröffentlicht. Das multimodale Sprachmodell zielt speziell auf den Einsatz als autonomer KI-Agent ab und verarbeitet Text sowie Medien nativ. Architektur und Hardware-Bedarf Das Modell Qwen3.5-397B-A17B ist ab sofort frei verfügbar. Alibaba stellt die Gewichte unter der permissiven Apache-2.0-Lizenz im Netz bereit. Entwickler können das Open-Weight-Modell dadurch kommerziell ohne strenge Einschränkungen in eigenen Projekten nutzen. Technisch handelt es sich um ein fortschrittliches Mixture-of-Experts-Modell. Das System wählt für jede spezifische Aufgabe nur spezialisierte Teilnetze aus. Von den insgesamt 397 Milliarden Parametern sind bei einer Abfrage lediglich 17 Milliarden aktiv. Dieser Aufbau senkt den Rechenaufwand während der Texterstellung ganz erheblich. Der Speicherbedarf bleibt aufgrund der gewaltigen Gesamtgröße jedoch enorm hoch. Je nach Komprimierung (Quantisierung) belegt das Modell geschätzt 200 bis über 400 Gigabyte an Arbeits- oder Grafikspeicher. Nutzer benötigen für den lokalen Betrieb daher teure und extrem leistungsstarke Server-Hardware. In den nächsten Tagen und Wochen sollen aber auch noch deutlich kleinere Modelle erscheinen. Anzeige Native Multimodalität für Agenten Eine Besonderheit der neuen Qwen3.5-Serie ist die native Multimodalität. Das Modell verarbeitet verschiedene Datentypen direkt in einem einzigen neuronalen Netz. Dazu gehören einfache Texte, Bilder, lange Dokumente und hochauflösende Videos. Frühere KI-Systeme schalteten oft separate Modelle für die Bildverarbeitung und Textverarbeitung hintereinander. Dieser integrierte Ansatz reduziert typische Informationsverluste zwischen den einzelnen Modulen. Das System versteht den Kontext von verschachtelten Videoinhalten dadurch wesentlich präziser. Die Entwickler rücken den Einsatz als autonomen KI-Agenten stark in den Fokus. Das Modell soll künftig selbstständig im Internet recherchieren und lokale Dateien fehlerfrei analysieren. Die native Integration aller Medientypen bildet dafür die notwendige technische Basis. + Quelle: Alibaba Skalierung durch Trainingsumgebungen Alibaba zeigt in einer veröffentlichten Grafik den genauen Zusammenhang zwischen Modellleistung und Trainingsumgebungen. Die Entwickler haben die Menge an simulierten Umgebungen während des Trainings stark erhöht. Sie skalierten die Anzahl der Szenarien auf bis zu 15.000 Umgebungen. Eine Umgebung stellt dabei ein spezifisches Szenario in einem Computersystem dar. Darin trainiert das Modell konkrete Handlungen und komplexe Interaktionen mit Software. Die vorliegenden Daten belegen eine klare Leistungssteigerung bei zunehmender Anzahl dieser Trainingsszenarien. Die Modellvariante mit aktivierter Denk-Funktion erreicht bei 15.000 Umgebungen eine durchschnittliche Platzierung von 3,5. Damit schließt Qwen3.5-397B-A17B zu sehr starken proprietären Modellen wie Claude-Opus 4.5 auf. Die Standardversion ohne diese spezielle Denk-Funktion landet im direkten Vergleich auf dem siebten Rang. Sie wurde im Vorfeld mit knapp 12.000 Umgebungen umfassend trainiert. Der beobachtete Sprung verdeutlicht den positiven Effekt des zusätzlichen Rechenaufwands für die Planung. + Quelle: Alibaba Benchmarks zeigen beeindruckende Leistung Ein genauer Blick auf die Benchmark-Ergebnisse offenbart ein äußerst starkes Bild für die Nutzer. Bei der reinen Befehlsausführung im bekannten IFBench führt das neue Alibaba-Modell. Es setzt sich dort mit 76,5 Punkten an die Spitze des Testfeldes. + Quelle: Alibaba Auch bei der agentenbasierten Websuche schneidet das große Modell sehr gut ab. Im etablierten Test BrowseComp erreicht es überzeugende 78,6 Punkte. Die komplexe Dokumentenanalyse im OmniDocBench v1.5 entscheidet Qwen mit 90,8 Punkten ebenfalls eindeutig für sich. Mit dieser Punktzahl lässt es namhafte Konkurrenten wie GPT-5.2 und Claude Opus 4.5 hinter sich. In anderen Disziplinen zeigen sich nur sehr kleine, verzeihliche Rückstände auf die teure Konkurrenz. Bei komplexen Programmieraufgaben im SWE-bench Verified erreicht das Modell beachtliche 76,4 Punkte. Hier führen die geschlossenen Modelle Claude Opus 4.5 und GPT-5.2 das restliche Feld zwar an. Für ein kostenloses Open-Weight-Modell ist dieser Wert dennoch ein großer Erfolg. Ein ähnliches Bild zeigt sich beim logischen Schließen im anspruchsvollen Test GPQA Diamond. Dort liegt das System mit 88,4 Punkten nur denkbar knapp hinter dem proprietären GPT-5.2. Bei der visuellen Analyse im MMMU-Pro liefert das Sprachmodell ebenfalls extrem starke Werte. Es ordnet sich mit exzellenten 79,0 Punkten nur minimal hinter dem Platzhirsch Gemini 3 Pro ein. Die Entwickler liefern mit dem Release ein beeindruckend starkes Gesamtpaket für den lokalen Agenten-Einsatz. Anzeige

  • Qwen-Image 2.0 fordert Nano Banana Pro heraus

    Ein Pferd und ein Mann

    Qwen 2.0

    Kurzfassung

    Quellen

    Alibaba veröffentlicht Qwen-Image 2.0, das Bildgenerierung und -bearbeitung in einer Architektur zusammenfasst. Das Modell nutzt eine native 2K-Auflösung und eine spezielle Engine für fehlerfreie Textdarstellung. In unabhängigen Benchmarks erreicht die KI Platz zwei bei der Bildbearbeitung und Platz drei bei der Generierung. Neue Funktionen sichern die visuelle Konsistenz von Charakteren für mehrteilige Bilderserien.

    Qwen-Image-2.0: Professional infographics, exquisite photorealism

    Introducing Qwen-Image-2.0 — our next-gen image generation model!

    Alibaba hat heute mit Qwen-Image 2.0 die neueste Version seiner Bild-KI veröffentlicht. Das Modell setzt auf eine native Auflösung von 2048 x 2048 Pixeln und verspricht durch eine spezialisierte Typografie-Engine signifikante Verbesserungen bei der Darstellung von Texten in Grafiken. Mit der Version 2.0 vollzieht Alibaba den Schritt zu einem sogenannten „Unified Omni Model“. Anders als bei herkömmlichen Ansätzen, die für die Generierung (Text-to-Image) und die nachträgliche Bearbeitung (Image Editing) oft separate Verarbeitungsketten oder Modelle nutzen, führt Qwen-Image 2.0 diese Aufgaben in einer 7B-Architektur zusammen. Laut Herstellerangaben ermöglicht dies einen direkten Wechsel zwischen Erstellung und Modifikation ohne den sonst üblichen Qualitätsverlust durch den Wechsel der Verfahren. Anzeige Technische Basis und Text-Verständnis Ein Kernmerkmal des Updates ist die „Complex Typography Engine“. Das System soll Anweisungen mit bis zu 1.000 Token verarbeiten können, um komplexe Layouts für Poster, Präsentationen oder Infografiken zu erstellen. In Demonstrationen zeigt das Modell die Fähigkeit, dichten Text fehlerfrei in Bilder zu integrieren – eine Disziplin, an der viele Diffusionsmodelle bisher scheitern. Technisch setzt Alibaba auf eine native Generierung in 2K-Auflösung (2048×2048 Pixel). Dies unterscheidet sich von Methoden, die Bilder in niedrigerer Auflösung erstellen und nachträglich hochskalieren (Upscaling), was oft zu Artefakten führt. Das Modell soll dabei mikroskopische Details wie Hautporen oder Stofftexturen direkt rendern. Die Effizienz des 7-Milliarden-Parameter-Modells (7B) soll dabei eine schnelle Inferenzzeit gewährleisten, was für den praktischen Einsatz in Produktivumgebungen entscheidend ist. + Quelle: Alibaba Benchmarks bestätigen Anschluss an die Weltspitze Ein Blick auf die aktuellen Leaderboards der „AI Arena“ zeigt, dass Alibaba mit diesem Release zur direkten Konkurrenz aus den USA aufschließt. Im Bereich „Text-to-Image Generation“ erreicht Qwen-Image 2.0 einen Elo-Score von 1029 und belegt damit Platz 3, knapp hinter OpenAIs GPT Image 1.5 (1043) und Googles Gemini-3-Pro (1050). + Quelle: Alibaba Noch deutlicher wird die Leistungsfähigkeit im Bereich der Bildbearbeitung („Single-Image Edit“). Hier positioniert sich das Modell mit einem Elo-Score von 1034 auf dem zweiten Platz weltweit, direkt hinter dem Gemini-3-Pro-Image-Preview (1042) und deutlich vor Wettbewerbern wie Seedream 4.5 oder den FLUX.2-Varianten. Diese Werte deuten darauf hin, dass die Integration von Editier-Funktionen in das Basismodell in der Praxis robuste Ergebnisse liefert. + Quelle: Alibaba Konsistenz bei Bearbeitung und Storytelling Für professionelle Anwender ist die Konsistenz von Charakteren und Objekten über mehrere Bilder hinweg relevanter als die reine Bildqualität eines Einzelwerks. Qwen-Image 2.0 führt hierzu Funktionen ein, die eine Identitätswahrung bei der Generierung von Bilderserien ermöglichen sollen. In gezeigten Beispielen, etwa einem Comic-Strip, bleiben Charaktermerkmale und Stilelemente über verschiedene Panels hinweg stabil, selbst wenn sich Perspektive oder Kleidung ändern. Auch die nachträgliche Bearbeitung, wie der Austausch von Kleidung bei gleichbleibender Gesichtsanatomie, wird ohne sichtbare Brüche im Bildaufbau durchgeführt. Dies adressiert ein häufiges Problem generativer KI, bei der kleine Änderungen oft das gesamte Bildmotiv ungewollt verfremden. + + Quelle: Alibaba Rapide Entwicklungsgeschwindigkeit Der Release markiert den vorläufigen Höhepunkt einer aggressiven Entwicklungsstrategie. Das Projekt „Qwen-Image“ startete erst im Mai 2025. Innerhalb von weniger als einem Jahr veröffentlichte Alibaba mehrere Zwischenversionen (u.a. Qwen-Image-2512 im Dezember 2025), um nun im Februar 2026 die Version 2.0 folgen zu lassen. Ob das Modell die hohen Erwartungen im täglichen Einsatz flächendeckend erfüllen kann, wird die Verfügbarkeit der Gewichte auf Plattformen wie Hugging Face und die unabhängige Überprüfung durch die Community in den kommenden Tagen zeigen.

  • Qwen3-Coder-Next für effizientes Coding und KI-Agenten

    Ein Alibaba Bär mit Qwen Code

    Nano Banana

    Kurzfassung

    Quellen

    Alibaba veröffentlicht Qwen3-Coder-Next, ein effizientes Sprachmodell für Programmieraufgaben mit nur 3 Milliarden aktiven Parametern. Dank der Mixture-of-Experts-Architektur läuft das Modell auf Consumer-Hardware und schlägt im Benchmark SWE-Bench Verified sogar DeepSeek-V3.2. Der Fokus liegt auf autonomen Coding-Agenten, die Fehler beheben und komplexe Terminal-Befehle eigenständig ausführen können. Das Open-Weight-Modell ist ab sofort über Hugging Face verfügbar und kann lokal integriert werden.

    Qwen Official Announcement – X Post

    Hugging Face – Qwen3-Coder-480B-A35B-Instruct

    Alibaba veröffentlicht mit Qwen3-Coder-Next ein neues Open-Weight-Sprachmodell, das sich auf komplexe Programmieraufgaben spezialisiert. Trotz einer kompakten Architektur von nur 3 Milliarden aktiven Parametern übertrifft es in aktuellen Benchmarks deutlich größere Konkurrenten. Effizienz durch Mixture-of-Experts Die technische Basis von Qwen3-Coder-Next bildet eine Mixture-of-Experts-Architektur (MoE). Das Modell verfügt zwar über eine Gesamtzahl von 80 Milliarden Parametern, aktiviert für die Berechnung eines einzelnen Tokens jedoch nur knapp 3 Milliarden davon. Dieser Ansatz reduziert den Rechenaufwand drastisch. Entwickler können das Modell dadurch auch auf leistungsfähiger Consumer-Hardware lokal betreiben, ohne auf die Intelligenz riesiger Server-Modelle verzichten zu müssen. Die Latenz bei der Code-Generierung sinkt spürbar, was besonders für Echtzeit-Anwendungen in Entwicklungsumgebungen wichtig ist. Anzeige Benchmark-Ergebnisse schlagen DeepSeek und GLM In standardisierten Tests zeigt das Modell beeindruckende Ergebnisse. Im „SWE-Bench Verified“, der die Lösung echter GitHub-Issues simuliert, erreicht Qwen3-Coder-Next einen Score von 70,6 Prozent. Damit schlägt es knapp das bisher führende DeepSeek-V3.2 (70,2 Prozent) und das GLM-4.7. Noch deutlicher ist der Vorsprung im anspruchsvollen „SWE-Bench Pro“. Hier erzielt das Alibaba-Modell 44,3 Prozent und liegt damit deutlich vor der Konkurrenz, die teilweise mehr als die zehnfache Menge an aktiven Parametern benötigt. Das Modell positioniert sich in der Effizienz-Leistungs-Kurve (Pareto-Frontier) damit extrem günstig und kommt sogar an die Leistung geschlossener Systeme wie Claude Opus 4.5 heran. + Quelle: Alibaba Fokus auf Agenten und Terminals Alibaba optimierte Qwen3-Coder-Next nicht nur für das Schreiben von Code, sondern für das agieren als „Agent“. Das Modell soll eigenständig Fehler suchen, Tests schreiben und Kommandozeilen-Befehle ausführen. Die Ergebnisse im „Terminal-Bench 2.0“ bestätigen diese Ausrichtung, auch wenn das Modell hier mit 36,2 Prozent noch hinter DeepSeek-V3.2 liegt. Dennoch zeigt die Architektur, dass spezialisierte Coding-Modelle mit geringem Speicherbedarf zunehmend komplexe Workflows übernehmen können. Das Modell steht ab sofort auf Hugging Face zum Download bereit. + Quelle: Alibaba

  • China genehmigt laut Reuters ByteDance, Alibaba und Tencent den Kauf von über 400.000 Nvidia H200-Chips

    An editorial-style, hand-drawn modern illustration depicting a capable artificial intelligence computer chip build in CHINA. The illustration is sophisticated and thought-provoking, with a capable artificial intelligence computer chip depicted realistically, yet subtly altered to suggest artificiality. The background is elegant and minimalist, focusing the viewer's attention on the a capable artificial intelligence computer chip. The style is sophisticated and professional, suitable for an editorial context

    China hat ByteDance, Alibaba und Tencent die Genehmigung erteilt, Nvidias H200-KI-Chips zu kaufen, berichtet Reuters unter Berufung auf vier Insider.

    Der Artikel China genehmigt laut Reuters ByteDance, Alibaba und Tencent den Kauf von über 400.000 Nvidia H200-Chips erschien zuerst auf The Decoder.

  • Qwen3-Max-Thinking schlägt GPT-5.2 und Gemini 3 Pro

    Ein Bär und qwen3-max thinking als Lehrbuch

    Alibaba

    Kurzfassung

    Quellen

    Alibaba veröffentlicht mit Qwen3-Max-Thinking ein neues KI-Modell, das in Mathematik- und Coding-Benchmarks die US-Konkurrenz GPT-5.2 und Gemini 3 Pro übertrifft. Das Modell nutzt eine „System 2“-Architektur für tiefere logische Schlussfolgerungen, ähnlich der o-Serie von OpenAI. Im Gegensatz zu den geschlossenen US-Modellen ist Qwen3 als offene Variante verfügbar, was lokalen Betrieb und mehr Unabhängigkeit ermöglicht.

    Alibaba Qwen3 Max Thinking Release

    Qwen Ankündigung auf X

    Der chinesische Tech-Gigant Alibaba hat heute mit „Qwen3-Max-Thinking“ sein bisher leistungsstärkstes KI-Modell veröffentlicht und zielt damit direkt auf die Vormachtstellung der US-Firmen. Für Entwickler und Unternehmen bedeutet dies eine Zäsur: Das neue Modell erreicht in entscheidenden Benchmarks nicht nur das Niveau von GPT-5.2 und Gemini 3 Pro, sondern übertrifft diese teilweise. Wachablösung an der Leistungsspitze Lange Zeit galten die Modelle von OpenAI und Google als unantastbar. Die neuesten Benchmark-Ergebnisse zeichnen jedoch ein anderes Bild. In der prestigeträchtigen Disziplin „GPQA Diamond“, die Expertenwissen auf PhD-Niveau abfragt, erzielt Qwen3-Max-Thinking einen Wert von 92,8 Punkten. Damit lässt es sowohl GPT-5.2 (92,4) als auch Googles Gemini 3 Pro (91,9) hinter sich. Besonders deutlich wird der Vorsprung bei komplexer Mathematik. Im „IMO-AnswerBench“, der Aufgaben der Internationalen Mathematik-Olympiade simuliert, erreicht das chinesische Modell 86,3 Punkte, während Gemini 3 Pro bei 83,3 und Claude-Opus-4.5 bei 84,0 liegen. Alibaba beweist damit, dass chinesische Spitzenmodelle den bloßen Kopiermodus verlassen haben und nun technologisch vorlegen. + Quelle: Alibaba Reasoning-Fähigkeiten im Fokus Der Namenszusatz „Thinking“ verrät die technische Ausrichtung. Das Modell antwortet nicht sofort reflexartig, sondern schaltet einen internen Denkprozess vor, um komplexe logische Ketten zu prüfen. Dieser Ansatz zahlt sich besonders bei der Programmierung aus. Im „Arena-Hard v2“-Benchmark, der die Bewältigung schwieriger realer Coding-Probleme misst, dominiert Qwen mit 90,2 Punkten das Feld deutlich gegenüber Claude-Opus-4.5 (76,7) und liegt gleichauf mit spezialisierten US-Modellen. Für Software-Ingenieure, die bisher auf westliche APIs angewiesen waren, eröffnet sich hier eine ernstzunehmende Alternative. + Quelle: Alibaba Anzeige Offene Gewichte als Strategiewechsel Der entscheidende Unterschied liegt jedoch nicht nur in den Rohdaten, sondern in der Verfügbarkeit. Während GPT-5.2 und Gemini 3 Pro als reine API-Produkte in den Cloud-Ökosystemen ihrer Hersteller eingesperrt bleiben, setzt Alibaba seine Strategie der offenen Verfügbarkeit fort. Qwen3-Max-Thinking ist „nicht geschlossen“. Das bedeutet in der Praxis oft, dass die Modellgewichte unter Lizenzen verfügbar gemacht werden, die eine lokale Ausführung oder das Hosting auf eigenen Servern erlauben. Für europäische Unternehmen, die unter strengen Datenschutzauflagen arbeiten, ist dies ein gewichtiges Argument. Man holt sich die Intelligenz ins eigene Haus, statt Daten in eine Blackbox zu senden. Grenzen und Konkurrenz Trotz der beeindruckenden Werte ist das Rennen nicht gelaufen. In Tests zum allgemeinen Weltwissen wie „MMLU-Pro“ liegt Gemini 3 Pro mit 89,8 Punkten weiterhin knapp vor Qwen (85,7). Das deutet darauf hin, dass Google in der Breite der Trainingsdaten noch Vorteile besitzt, während Alibaba bei der logischen Tiefe aufgeholt hat. Zudem zeigt der Vergleich mit DeepSeek V3.2, dass auch innerhalb Chinas ein harter Wettbewerb um die Krone der künstlichen Intelligenz entbrannt ist.