Code Velocity
AI-modeller

GPT-5.2-Codex: OpenAIs Agentiske Kodingsmodell

·6 min lesing·OpenAI·Opprinnelig kilde
Del
GPT-5.2-Codex benchmark-diagram som viser SWE-Bench Pro og Terminal-Bench 2.0 scorer sammenlignet med GPT-5.2 basismodellen

GPT-5.2-Codex Benchmark-resultater

OpenAI lanserte GPT-5.2-Codex 14. januar 2026, fem uker etter basis GPT-5.2-modellen. Den er bygget for agentisk koding: vedvarende flerstegsøkter der modellen planlegger, skriver kode, kjører tester og itererer på feil.

Modellen scorer 56.4% på SWE-Bench Pro (opp fra 55.6% på basis GPT-5.2) og 64.0% på Terminal-Bench 2.0 (opp fra 62.2%). Begge benchmarks tester virkelige kodingsoppgaver, ikke isolert kodegenerering.

GPT-5.2-Codex vs GPT-5.2 vs Claude Opus 4.6

BenchmarkGPT-5.2-CodexGPT-5.2Claude Opus 4.6
SWE-Bench Pro56.4%55.6%
Terminal-Bench 2.064.0%62.2%#1
Kontekst (input)400K128K200K (1M beta)
Output-tokens128K128K128K

GPT-5.2-Codex balanserer kostnad og ytelse. Claude Opus 4.6 leder Terminal-Bench 2.0 og Humanity's Last Exam, mens GPT-5.2-Codex konkurrerer på pris og kontekstvinduets størrelse.

Nøkkelfunksjoner for Utviklere

Kontekstkomprimering

I likhet med komprimeringsmekanismen i Claude Opus 4.6 kan GPT-5.2-Codex komprimere tidligere kontekst mens den bevarer oppgavestatus. Dette muliggjør kodingsøkter over flere timer der modellen holder oversikt over hele prosjektet, selv når samtalen overskrider kontekstvinduet.

Fullføring av Langsiktige Oppgaver

Modellen er optimalisert for oppgaver som spenner over mange steg: store refaktoreringer, codebase-migreringer og implementeringer av funksjonalitet på tvers av flere filer. Når en tilnærming feiler, justerer GPT-5.2-Codex og prøver på nytt i stedet for å starte oppgaven på nytt.

Innebygd Sårbarhetsdeteksjon

GPT-5.2-Codex inkluderer sårbarhetsdeteksjon under kodegenerering. Team som trenger dypere skanning kan bruke dedikerte verktøy som Claude Code Security, som tilbyr flerstegs verifikasjon med filtrering av falske positiver.

Windows-støtte

OpenAI har forbedret GPT-5.2-Codex' ytelse i Windows-utviklingsmiljøer og rettet den Unix-sentrerte optimaliseringen fra tidligere modeller.

GPT-5.2-Codex Priser

NivåPris per Million Tokens
Input$1.75
Output$14.00
Hurtigbufret input$0.175 (90% rabatt)

GPT-5.2-Codex er tilgjengelig på alle Codex-plattformer for betalende ChatGPT-brukere og som en frittstående API-modell.

Hva GPT-5.2-Codex Betyr for Agentisk Koding

Lanseringen fortsetter en bransjeomfattende trend: AI-modeller går fra kodekomplettering til vedvarende kodingsagenter. OpenAIs Codex, Anthropics Claude Code og GitHub Agentic Workflows sikter alle mot flerstegs ingeniøroppgaver med minimal menneskelig inngripen.

Ofte stilte spørsmål

Hva er GPT-5.2-Codex?
GPT-5.2-Codex er OpenAIs kodingsoptimaliserte variant av GPT-5.2-modellen, lansert 14. januar 2026. Den er bygget spesifikt for agentiske kodingsarbeidsflyter der modellen kjører vedvarende, flerstegs programvareutviklingsøkter. Den scorer 56.4% på SWE-Bench Pro og 64.0% på Terminal-Bench 2.0, en forbedring fra basis GPT-5.2 modellens 55.6% og 62.2%. Modellen støtter et 400K input- og 128K output-kontekstvindu.
Hva koster GPT-5.2-Codex?
GPT-5.2-Codex koster $1.75 per million input-tokens og $14 per million output-tokens. Hurtigbufrede inputs får 90% rabatt, som gir en effektiv pris på $0.175 per million tokens. Dette gjør den betydelig billigere enn Claude Opus 4.6 til $5/$25 per million tokens, selv om de to modellene skiller seg i benchmark-ytelse og funksjonssett.
Hva er kontekstkomprimering i GPT-5.2-Codex?
Kontekstkomprimering er en funksjon som komprimerer tidligere samtalekontekst mens den bevarer kritisk oppgavestatus. Dette gjør at GPT-5.2-Codex kan opprettholde kodingsøkter over flere timer uten å miste oversikt over prosjektomfanget. Når en økt nærmer seg kontekstvinduets grense, oppsummerer modellen eldre kontekst i stedet for å forkaste den, noe som muliggjør lengre og mer komplekse kodingsoppgaver uten omstart.
Hvordan er GPT-5.2-Codex sammenlignet med Claude Opus 4.6?
På Terminal-Bench 2.0 har Claude Opus 4.6 den høyeste scoren, foran GPT-5.2-Codex' 64.0%. På SWE-Bench Pro scorer GPT-5.2-Codex 56.4%. De to modellene har ulike tilnærminger: GPT-5.2-Codex tilbyr større input-kontekst (400K tokens mot Claudes 200K standard) og lavere pris, mens Claude Opus 4.6 tilbyr agent teams og høyere benchmark-scorer på resonneringsoppgaver som Humanity's Last Exam.

Hold deg oppdatert

Få de siste AI-nyhetene i innboksen din.

Del