
Nano Banana
Kurzfassung
▾
Quellen
▾
Alibaba veröffentlicht Qwen3-Coder-Next, ein effizientes Sprachmodell für Programmieraufgaben mit nur 3 Milliarden aktiven Parametern. Dank der Mixture-of-Experts-Architektur läuft das Modell auf Consumer-Hardware und schlägt im Benchmark SWE-Bench Verified sogar DeepSeek-V3.2. Der Fokus liegt auf autonomen Coding-Agenten, die Fehler beheben und komplexe Terminal-Befehle eigenständig ausführen können. Das Open-Weight-Modell ist ab sofort über Hugging Face verfügbar und kann lokal integriert werden.
Qwen Official Announcement – X Post
Hugging Face – Qwen3-Coder-480B-A35B-Instruct
Alibaba veröffentlicht mit Qwen3-Coder-Next ein neues Open-Weight-Sprachmodell, das sich auf komplexe Programmieraufgaben spezialisiert. Trotz einer kompakten Architektur von nur 3 Milliarden aktiven Parametern übertrifft es in aktuellen Benchmarks deutlich größere Konkurrenten. Effizienz durch Mixture-of-Experts Die technische Basis von Qwen3-Coder-Next bildet eine Mixture-of-Experts-Architektur (MoE). Das Modell verfügt zwar über eine Gesamtzahl von 80 Milliarden Parametern, aktiviert für die Berechnung eines einzelnen Tokens jedoch nur knapp 3 Milliarden davon. Dieser Ansatz reduziert den Rechenaufwand drastisch. Entwickler können das Modell dadurch auch auf leistungsfähiger Consumer-Hardware lokal betreiben, ohne auf die Intelligenz riesiger Server-Modelle verzichten zu müssen. Die Latenz bei der Code-Generierung sinkt spürbar, was besonders für Echtzeit-Anwendungen in Entwicklungsumgebungen wichtig ist. Anzeige Benchmark-Ergebnisse schlagen DeepSeek und GLM In standardisierten Tests zeigt das Modell beeindruckende Ergebnisse. Im „SWE-Bench Verified“, der die Lösung echter GitHub-Issues simuliert, erreicht Qwen3-Coder-Next einen Score von 70,6 Prozent. Damit schlägt es knapp das bisher führende DeepSeek-V3.2 (70,2 Prozent) und das GLM-4.7. Noch deutlicher ist der Vorsprung im anspruchsvollen „SWE-Bench Pro“. Hier erzielt das Alibaba-Modell 44,3 Prozent und liegt damit deutlich vor der Konkurrenz, die teilweise mehr als die zehnfache Menge an aktiven Parametern benötigt. Das Modell positioniert sich in der Effizienz-Leistungs-Kurve (Pareto-Frontier) damit extrem günstig und kommt sogar an die Leistung geschlossener Systeme wie Claude Opus 4.5 heran. + Quelle: Alibaba Fokus auf Agenten und Terminals Alibaba optimierte Qwen3-Coder-Next nicht nur für das Schreiben von Code, sondern für das agieren als „Agent“. Das Modell soll eigenständig Fehler suchen, Tests schreiben und Kommandozeilen-Befehle ausführen. Die Ergebnisse im „Terminal-Bench 2.0“ bestätigen diese Ausrichtung, auch wenn das Modell hier mit 36,2 Prozent noch hinter DeepSeek-V3.2 liegt. Dennoch zeigt die Architektur, dass spezialisierte Coding-Modelle mit geringem Speicherbedarf zunehmend komplexe Workflows übernehmen können. Das Modell steht ab sofort auf Hugging Face zum Download bereit. + Quelle: Alibaba
