ChatGPT 5.4 komt er aan
Nog voor OpenAI officieel iets aankondigde, wist het internet al dat GPT-5.4 eraan zat te komen. Niet via een persbericht of een keynote, maar via een reeks onbedoelde lekken vanuit OpenAI’s eigen ontwikkelteam. Drie keer in één week tijd dook de modelnaam op in publieke code, foutmeldingen en een screenshot van een medewerker.
Drie lekken in vijf dagen
De eerste aanwijzing kwam via OpenAI’s publieke Codex-repository op GitHub. Een engineer had intern code gecommit waarbij de minimale modelversie was ingesteld op 5.4, een model dat officieel nog niet bestaat. Binnen vijf uur volgden vijf geforceerde pushes om dat getal terug te zetten naar 5.3. Dat doe je niet voor een typfout.
Een tweede lek volgde snel daarna. In dezelfde repository dook een slash-commando op met de omschrijving “toggle fast mode for GPT-5.4”. Ook dat werd binnen enkele uren verwijderd. En dan was er nog een medewerker van het Codex-team die een screenshot postte waarop GPT-5.4 zichtbaar was in de modelselector. De post verdween, maar screenshots blijven.
Als klap op de vuurpijl kreeg journalist Corey Noles een foutmelding in Codex die verwees naar een model met de naam gpt-5.4-ab-arm1-1020-1p-codexswic-ev3. Dat bevestigt dat het model al actief draait op OpenAI’s servers. The Information bevestigde vervolgens dat de release nabij is.
Een context window van 1 miljoen tokens
Het meest concrete wat we weten over GPT-5.4 is de uitbreiding van het context window naar 1 miljoen tokens. Ter vergelijking: GPT-5.2 werkte met 400.000 tokens. Dat is meer dan een verdubbeling.
Wat betekent dat in de praktijk? Een token is ruwweg een woord of woorddeel. Met 1 miljoen tokens kan het model in één sessie een enorme hoeveelheid tekst verwerken: volledige codebases, lange juridische documenten, uitgebreide onderzoeksrapporten of meerdere boeken tegelijk. Je hoeft niet langer te knippen en te plakken of informatie op te splitsen over meerdere gesprekken.
Belangrijk is wel dat een groter context window op zichzelf niet genoeg is. De echte vraag is hoe goed het model relevante informatie kan ophalen uit die enorme hoeveelheid context. Een model dat verdrinkt in zijn eigen geheugen is even nutteloos als een model met een klein window. Dat is precies waar OpenAI naar eigen zeggen aan werkt. Betere retrieval en coherentie over lange contexten.
Met deze stap haalt OpenAI Google en Anthropic bij. Zowel Gemini als Claude ondersteunen al een context window van 1 miljoen tokens. Voor OpenAI is dit dus een inhaalbeweging, maar een noodzakelijke.
Extreme reasoning
De tweede grote toevoeging is wat OpenAI intern de extreme reasoning mode noemt. Dat klinkt als marketinglingo, maar het idee erachter is concreet.
Huidige modellen bieden al verschillende niveaus van redeneren. Snel en oppervlakkig of dieper en trager. GPT-5.4 voegt daar een extra laag aan toe waarbij het model significant meer rekentijd krijgt om een antwoord te formuleren. We hebben het niet over seconden extra, maar potentieel over minuten of zelfs uren. Je stelt een vraag, laat het model werken, en komt later terug voor het antwoord.
Dat klinkt misschien onpraktisch voor alledaags gebruik. Deze modus is niet bedoeld voor wie snel een e-mail wil herschrijven. Het is gericht op wetenschappelijk onderzoek, complexe wiskundige problemen, diepgaande code-analyse en andere taken waarbij nauwkeurigheid zwaarder weegt dan snelheid. Voor onderzoekers en engineers die nu al uren kwijt zijn aan het doorploegen van data of het debuggen van complexe systemen, kan dit een serieuze tijdsbesparing opleveren.
Het gaat verder dan de deep research modus in Gemini. Waar deep research vooral zoekt en samenvat, lijkt de extreme reasoning mode van GPT-5.4 gericht op redeneren zelf.
Betrouwbaarder op lange taken
Een derde verbetering die uit de lekken naar voren komt, is betere prestaties op zogenaamde long-horizon tasks. Taken die meerdere stappen omvatten en uren kunnen duren. Denk aan een AI-agent die zelfstandig een softwareproject uitwerkt, een uitgebreide analyse maakt of een reeks geautomatiseerde workflows uitvoert.
Het probleem met huidige modellen is dat ze na verloop van tijd details vergeten of instructies niet consequent volgen. Wie ooit een lang gesprek heeft gehad met een AI-assistent waarbij het model halverwege de oorspronkelijke opdracht leek te vergeten, herkent dit. GPT-5.4 zou hier significant beter in zijn. Minder fouten over vele stappen, een beter geheugen voor instructies en minder kans op afdwalen.
Dit is vooral relevant voor OpenAI’s Codex, de programmeringagent die complexe codetaken zelfstandig uitvoert. Als die agent na twintig stappen nog steeds weet wat de oorspronkelijke opdracht was en geen cruciale details heeft laten vallen, wordt het een stuk bruikbaarder voor ontwikkelprojecten.
Volledige resolutie voor afbeeldingen
Een minder besproken maar potentieel waardevolle toevoeging is ondersteuning voor afbeeldingen in volledige resolutie. Tot nu toe werden geüploade afbeeldingen gecomprimeerd voordat het model ze verwerkte. Dat betekent dataverlies, wat problemen geeft bij taken waarbij elk detail telt. Medische scans, technische schema’s, architecturale tekeningen of screenshots van code.
Met volledige resolutie kan het model meer informatie uit een afbeelding halen, wat de nauwkeurigheid bij beeldanalyse verbetert.
Een snellere en een standaard modus
Uit de gelekte code blijkt ook dat GPT-5.4 verschillende serviceniveaus krijgt. Een standaard modus en een snelle modus. Desnelle modus is bedoeld voor situaties waar lage latency belangrijk is, zoals realtime AI-agents die snel moeten reageren. De standaard modus biedt meer diepgang maar is trager.
De concurrentiedruk achter de release
GPT-5.4 verschijnt zomaar. OpenAI staat onder druk. Zowel Google met Gemini als Anthropic met Claude hebben de afgelopen maanden flinke stappen gezet. OpenAI had lange tijd het grootste marktaandeel, maar dat voordeel slinkt.
Tegelijkertijd heeft OpenAI intern besloten om over te stappen op een hogere releasecadans van ongeveer één nieuw model per maand. De reden is strategisch. De enorme verwachtingen rond GPT-5 leidden bij de lancering tot teleurstelling, niet omdat het model slecht was, maar omdat de hype te hoog was opgelopen. Door vaker kleinere updates te releasen, probeert OpenAI die hype-en-teleurstelling-cyclus te doorbreken.
Met 910 miljoen wekelijkse actieve gebruikers zit OpenAI net onder de interne doelstelling van 1 miljard gebruikers. De groei vertraagde na GPT-5, maar trok weer aan met de releases van 5.1 en 5.2. GPT-5.4 moet die lijn doortrekken.
Wat kost het en voor wie is het?
De extreme reasoning mode, de lange context en de focus op complexe taken wijzen op een model dat in de buurt komt van Anthropic’s Opus-reeks, krachtig, maar ook duurder in gebruik.
Voor developers, onderzoekers en bedrijven die AI inzetten voor serieuze workflows is dat geen probleem. Voor wie ChatGPT gebruikt om recepten op te zoeken of e-mails te schrijven, verandert er waarschijnlijk weinig aan de dagelijkse ervaring. De modellen die voor die gebruiksscenario’s zijn geoptimaliseerd, zoals GPT-5.3 Instant, blijven beschikbaar.
Wat we nog niet weten
De exacte releasedatum is niet bevestigd. De prijs is onbekend. En hoewel de extreme reasoning mode veelbelovend klinkt, is het nog onduidelijk hoe goed die in de praktijk presteert op echte benchmarks. Vroege tests met een vermoedelijk pre-releaseversie van het model lieten indrukwekkende resultaten zien op het gebied van front-end development en creatieve generatie, maar op sommige complexe taken deed Anthropic’s Claude het beter.
De release is nabij, maar de echte test komt daarna
GPT-5.4 is onderweg. Wat het model uiteindelijk waard is, hangt af van hoe goed die extreme reasoning mode in de praktijk werkt, hoe betrouwbaar het model is op lange taken en of het context window van 1 miljoen tokens ook echt bruikbaar is of alleen indrukwekkend op papier.