GPT-5.4, GPT-5.4 mini und GPT-5.4 nano: OpenAIs neue Modell-Familie
Am 17. März 2026 hat OpenAI die Modell-Familie GPT-5.4 mit zwei neuen Varianten vervollständigt: GPT-5.4 mini und GPT-5.4 nano. Was steckt dahinter, und was bedeutet das konkret für Schweizer Unternehmen?
Die GPT-5.4-Familie im Überblick
| Modell | Zielgruppe | Kontext | Preis (Input/Output) | Besonderheit |
|---|---|---|---|---|
| GPT-5.4 | Komplexe Profi-Aufgaben | 200k Token | ~$5 / $20 pro 1M Token | Stärkstes Reasoning |
| GPT-5.4 mini | Coding, Subagenten, Multimodal | 400k Token | $0.75 / $4.50 pro 1M Token | 2x schneller als GPT-5 mini |
| GPT-5.4 nano | Klassifikation, Extraktion, Subagenten | 128k Token | $0.20 / $1.25 pro 1M Token | Kleinstes, günstigstes Modell |
GPT-5.4 mini: Das Arbeitspferd für Entwickler
GPT-5.4 mini übertrifft GPT-5 mini in allen relevanten Dimensionen – Coding, Reasoning, multimodales Verständnis und Tool-Nutzung – und läuft dabei mehr als doppelt so schnell.
„GPT-5.4 mini delivers strong end-to-end performance for a model in this class." — Aabhas Sharma, CTO bei Hebbia
Auf dem SWE-Bench Pro Benchmark erreicht GPT-5.4 mini 53,4% Pass@1 bei xhigh Reasoning-Effort – bemerkenswert nah an der Leistung des deutlich teureren GPT-5.4-Modells.
Warum das 400k-Kontextfenster wichtig ist
Mit 400.000 Token Kontext kann GPT-5.4 mini grosse Codebasen oder lange Dokumente in einem einzigen Aufruf verarbeiten – ohne aufwändiges Chunking.
Verfügbarkeit in Codex
In OpenAIs Codex verbraucht GPT-5.4 mini nur 30% des GPT-5.4-Kontingents. Codex kann es als Subagent einsetzen: Das grössere Modell plant, mini-Subagenten führen parallele Teilaufgaben aus.
GPT-5.4 nano: Für Hochvolumen und Subagenten
Mit $0.20 pro Million Input-Token ist nano das kosteneffizienteste Modell der Familie. Simon Willison hat ausgerechnet: 76.000 Fotos für 52 US-Dollar beschreiben – ein eindrückliches Bild der Kosteneffizienz.
OpenAI empfiehlt nano für Klassifikation, Datenextraktion, Ranking und einfache Coding-Subagenten.
Das Subagenten-Paradigma
GPT-5.4 mini und nano wurden explizit für die Subagenten-Ära entwickelt. Ein Orchestrator-Modell übernimmt Planung, spezialisierte Subagenten führen Teilaufgaben aus. Dieses Muster wird mit günstigeren Modellen erst wirtschaftlich skalierbar.
„Instead of using one model for everything, developers can compose systems where larger models decide what to do and smaller models execute quickly at scale." — OpenAI, März 2026
Benchmarks
| Benchmark | GPT-5.4 mini | GPT-5 mini | Bewertung |
|---|---|---|---|
| SWE-Bench Pro (xhigh) | 53.4% | ~35% | Starke Verbesserung |
| OSWorld-Verified | Nahe GPT-5.4 | Deutlich darunter | Computer-Use-Stärke |
| BullshitBench | Mittelfeld | Ähnlich | Kritisches Denken begrenzt |
Praktische Implikationen für Schweizer Unternehmen
Finanzsektor: GPT-5.4 nano für automatisierte Klassifikation von Dokumenten und Verträgen bei $0.20/M Token – auch für grosse Volumina wirtschaftlich.
Software-Teams: GPT-5.4 mini als Subagent in CI/CD-Pipelines für Code-Reviews, Testgenerierung und Dokumentation.
KMU: Das 400k-Kontextfenster ermöglicht ganze Projekte in einem API-Aufruf.
Bildung: GPT-5.4 nano für automatische Bewertung und adaptive Lernpfade bei tragbaren Kosten.
Fazit
GPT-5.4 mini und nano markieren einen wichtigen Schritt: Leistungsfähige KI wird günstiger, schneller und zugänglicher. Für Schweizer Teams ist jetzt der richtige Zeitpunkt, Agentic-Engineering-Workflows zu pilotieren.
Haben Sie Fragen zur Integration? Nehmen Sie Kontakt auf [blocked]