Code Velocity
AI-modeller

GPT-5.2-Codex: OpenAIs Agentiske Kodningsmodel

·6 min læsning·OpenAI·Original kilde
Del
GPT-5.2-Codex benchmark-diagram der viser SWE-Bench Pro og Terminal-Bench 2.0 scorer sammenlignet med GPT-5.2 basismodellen

GPT-5.2-Codex Benchmark-resultater

OpenAI udgav GPT-5.2-Codex den 14. januar 2026, fem uger efter basis GPT-5.2-modellen. Den er bygget til agentisk kodning: vedvarende flertrinssessioner, hvor modellen planlægger, skriver kode, kører tests og itererer på fejl.

Modellen scorer 56.4% på SWE-Bench Pro (op fra 55.6% på basis GPT-5.2) og 64.0% på Terminal-Bench 2.0 (op fra 62.2%). Begge benchmarks tester virkelige kodningsopgaver, ikke isoleret kodegenerering.

GPT-5.2-Codex vs GPT-5.2 vs Claude Opus 4.6

BenchmarkGPT-5.2-CodexGPT-5.2Claude Opus 4.6
SWE-Bench Pro56.4%55.6%
Terminal-Bench 2.064.0%62.2%#1
Kontekst (input)400K128K200K (1M beta)
Output-tokens128K128K128K

GPT-5.2-Codex balancerer omkostning og præstation. Claude Opus 4.6 fører Terminal-Bench 2.0 og Humanity's Last Exam, mens GPT-5.2-Codex konkurrerer på pris og kontekstvinduets størrelse.

Nøglefunktioner for Udviklere

Kontekstkomprimering

Ligesom kompaktionsfunktionen i Claude Opus 4.6 kan GPT-5.2-Codex komprimere tidligere kontekst og samtidig bevare opgavetilstanden. Det muliggør kodningssessioner over flere timer, hvor modellen holder styr på hele projektet, selv når samtalen overskrider kontekstvinduet.

Langsigtet Opgavefuldførelse

Modellen er optimeret til opgaver der spænder over mange trin: store refaktoreringer, codebase-migreringer og implementeringer af funktioner på tværs af flere filer. Når en tilgang fejler, justerer GPT-5.2-Codex og prøver igen i stedet for at genstarte opgaven.

Integreret Sårbarhedsdetektering

GPT-5.2-Codex inkluderer sårbarhedsdetektering under kodegenerering. Teams der har brug for dybere scanning kan bruge dedikerede værktøjer som Claude Code Security, der tilbyder flertrinsverifikation med falsk positiv-filtrering.

Windows-understøttelse

OpenAI har forbedret GPT-5.2-Codex's præstation i Windows-udviklingsmiljøer, og har rettet den Unix-centrerede optimering fra tidligere modeller.

GPT-5.2-Codex Priser

NiveauPris per Million Tokens
Input$1.75
Output$14.00
Cachet input$0.175 (90% rabat)

GPT-5.2-Codex er tilgængelig på alle Codex-platforme for betalende ChatGPT-brugere og som en selvstændig API-model.

Hvad GPT-5.2-Codex Betyder for Agentisk Kodning

Udgivelsen fortsætter en branchedækkende tendens: AI-modeller skifter fra kodekomplettering til vedvarende kodningsagenter. OpenAIs Codex, Anthropics Claude Code og GitHub Agentic Workflows sigter alle mod flertrinsingeniøropgaver med minimal menneskelig indgriben.

Ofte stillede spørgsmål

Hvad er GPT-5.2-Codex?
GPT-5.2-Codex er OpenAIs kodningsoptimerede variant af GPT-5.2-modellen, udgivet den 14. januar 2026. Den er bygget specifikt til agentiske kodningsworkflows, hvor modellen kører vedvarende, flertrinssessioner inden for softwareudvikling. Den scorer 56.4% på SWE-Bench Pro og 64.0% på Terminal-Bench 2.0, en forbedring fra basis GPT-5.2 modellens 55.6% og 62.2%. Modellen understøtter et 400K input- og 128K output-kontekstvindue.
Hvad koster GPT-5.2-Codex?
GPT-5.2-Codex koster $1.75 per million input-tokens og $14 per million output-tokens. Cachede inputs får 90% rabat, hvilket giver en effektiv cachet pris på $0.175 per million tokens. Det gør den markant billigere end Claude Opus 4.6 til $5/$25 per million tokens, selvom de to modeller adskiller sig i benchmark-præstation og funktionssæt.
Hvad er kontekstkomprimering i GPT-5.2-Codex?
Kontekstkomprimering er en funktion der komprimerer tidligere samtalekontekst og samtidig bevarer kritisk opgavetilstand. Det gør det muligt for GPT-5.2-Codex at opretholde kodningssessioner over flere timer uden at miste overblik over projektomfanget. Når en session nærmer sig kontekstvinduets grænse, opsummerer modellen ældre kontekst i stedet for at kassere den, hvilket muliggør længere og mere komplekse kodningsopgaver uden genstart.
Hvordan sammenligner GPT-5.2-Codex sig med Claude Opus 4.6?
På Terminal-Bench 2.0 har Claude Opus 4.6 den højeste score, foran GPT-5.2-Codex's 64.0%. På SWE-Bench Pro scorer GPT-5.2-Codex 56.4%. De to modeller har forskellige tilgange: GPT-5.2-Codex tilbyder større input-kontekst (400K tokens vs. Claudes 200K standard) og lavere pris, mens Claude Opus 4.6 tilbyder agent teams og højere benchmark-scorer på ræsonneringsopgaver som Humanity's Last Exam.

Hold dig opdateret

Få de seneste AI-nyheder i din indbakke.

Del