OpenAI bringt neue KI-Modelle für reaktionsschnelle Subagenten

Ein kleiner schneller Programmierer programmiert mit gpt 5.4 mini

Nano Banana

Kurzfassung

Quellen

OpenAI positioniert GPT-5.4 mini und nano gezielt als extrem schnelle Subagenten für komplexe Entwickler-Workflows.
Die Modelle arbeiten doppelt so schnell wie ihre Vorgänger, fassen bis zu 400.000 Token und glänzen bei der automatisierten Programmierung sowie der visuellen Steuerung von Oberflächen.
Dank der optimierten Architektur sinken Latenzzeiten und API-Kosten drastisch, sodass komplexe Aufgaben in unter 100 Sekunden für wenige Cent gelöst werden.

OpenAI: Introducing GPT 5.4 mini und nano

OpenAI hat die Sprachmodelle GPT-5.4 mini und GPT-5.4 nano offiziell veröffentlicht. Das Unternehmen richtet die neuen Versionen ganz gezielt auf einen speziellen Einsatzzweck aus: Sie sollen als reaktionsschnelle „Subagenten“ in automatisierten Arbeitsabläufen dienen. Fokus auf agentische Systeme Schon der Vorgänger verarbeitete Bilder, Text und Code nativ. Nun ändert sich jedoch die Philosophie in der praktischen Anwendung. In modernen Umgebungen plant ein großes Hauptmodell komplexe Aufgaben und delegiert die reine Ausführung an kleine, schnelle Worker-Modelle. Genau für diese ausführende Rolle hat OpenAI GPT-5.4 mini und nano optimiert. Sie richten sich an Entwickler, bei denen die Latenz das direkte Nutzererlebnis bestimmt. Dazu zählen flüssige Coding-Assistenten oder Systeme, die Bildschirminhalte in Echtzeit auslesen. Beide Modelle arbeiten dabei mehr als doppelt so schnell wie die vorherige Generation. OpenAI hat zudem das Kontextfenster auf 400.000 Token erweitert, damit die KI auch große Code-Datenbanken problemlos am Stück überblickt. Anzeige Starke Werte bei Programmierung und Vision Die aktuellen Benchmarks stützen diese neue Ausrichtung. Bei der Softwareentwicklung (SWE-bench Pro) erreicht GPT-5.4 mini 54,4 %. Das kompaktere nano-Modell kommt auf 52,4 %. + Quelle: OpenAI Auch bei der visuellen Steuerung von Computern punktet das Update. Im OSWorld-Verified Benchmark erzielt das mini-Modell 72,1 %. Es liegt damit fast gleichauf mit dem großen Flaggschiff GPT-5.4, das 75,0 % erreicht. Bei dieser rein visuellen Aufgabe zeigt das kleine nano-Modell mit 39,0 % allerdings noch Schwächen. Das logische Denken, das sogenannte Reasoning, wurde ebenfalls in die kleinen Modelle integriert. Im anspruchsvollen GPQA Diamond Benchmark liefert das mini-Modell starke 88,0 % korrekte Antworten. Auch der Zugriff auf externe Programme (Tool-Calling) gelingt deutlich besser. Im Toolathlon-Test steigert sich GPT-5.4 mini auf 42,9 %. Kosten und Latenz im Praxis-Check Der eigentliche Sprung zeigt sich in der reinen operativen Effizienz. Messdaten zum SWE-bench Pro verdeutlichen die Vorteile. Eine komplexe Programmier-Aufgabe dauert mit dem großen GPT-5.4 Modell oft über 1.000 Sekunden und kostet den Entwickler rund 0,85 US-Dollar. GPT-5.4 mini erledigt den gleichen Auftrag in etwa 200 bis 400 Sekunden. Der Preis fällt dabei auf extrem günstige 0,10 bis 0,30 US-Dollar. Wer auf absolute Geschwindigkeit setzt, nutzt GPT-5.4 nano, welches die Ergebnisse in knapp 100 Sekunden liefert. + + Quelle: OpenAI Die finalen Preise für die API-Schnittstelle unterstreichen den Sparkurs. GPT-5.4 mini kostet 0,75 US-Dollar pro Million Input-Token und 4.50 US-Dollar pro Million Output Token. Das nano-Modell wird für lediglich 0,20/1,25 US-Dollar angeboten. Weitere Benchmarks: + + Quelle: OpenAI