Code Velocity
Modele IA

GPT-5.2-Codex: Modelul Agentic de Programare al OpenAI

·6 min de citit·OpenAI·Sursa originală
Distribuie
Grafic cu benchmark-urile GPT-5.2-Codex care arată scorurile pe SWE-Bench Pro și Terminal-Bench 2.0 comparate cu modelul de bază GPT-5.2

Rezultatele Benchmark GPT-5.2-Codex

OpenAI a lansat GPT-5.2-Codex pe 14 ianuarie 2026, la cinci săptămâni după modelul de bază GPT-5.2. Este construit pentru programare agentică: sesiuni susținute în mai mulți pași unde modelul planifică, scrie cod, rulează teste și iterează pe eșecuri.

Modelul obține 56.4% pe SWE-Bench Pro (față de 55.6% pe GPT-5.2 de bază) și 64.0% pe Terminal-Bench 2.0 (față de 62.2%). Ambele benchmark-uri testează sarcini reale de programare, nu generare izolată de cod.

GPT-5.2-Codex vs GPT-5.2 vs Claude Opus 4.6

BenchmarkGPT-5.2-CodexGPT-5.2Claude Opus 4.6
SWE-Bench Pro56.4%55.6%
Terminal-Bench 2.064.0%62.2%#1
Context (intrare)400K128K200K (1M beta)
Tokeni ieșire128K128K128K

GPT-5.2-Codex echilibrează costul și performanța. Claude Opus 4.6 conduce Terminal-Bench 2.0 și Humanity's Last Exam, în timp ce GPT-5.2-Codex concurează prin preț și dimensiunea contextului.

Funcționalități Cheie pentru Dezvoltatori

Compactarea Contextului

Similar cu funcționalitatea de compactare din Claude Opus 4.6, GPT-5.2-Codex poate comprima contextul anterior păstrând starea sarcinii. Acest lucru permite sesiuni de programare de mai multe ore în care modelul menține urmărirea întregului proiect chiar și când conversația depășește fereastra de context.

Finalizarea Sarcinilor pe Termen Lung

Modelul este optimizat pentru sarcini care acoperă mulți pași: refactorizări ample, migrări de codebase și implementări de funcționalități în mai multe fișiere. Când o abordare eșuează, GPT-5.2-Codex ajustează și reîncearcă în loc să repornească sarcina.

Detectarea Vulnerabilităților Integrată

GPT-5.2-Codex include detectarea vulnerabilităților în timpul generării codului. Echipele care au nevoie de scanare mai aprofundată pot folosi instrumente dedicate precum Claude Code Security, care oferă verificare multi-etapă cu filtrarea pozitivelor false.

Suport pentru Mediul Windows

OpenAI a îmbunătățit performanța GPT-5.2-Codex pe fluxuri de lucru de dezvoltare Windows, corectând optimizarea centrată pe Unix din modelele anterioare.

Prețuri GPT-5.2-Codex

NivelCost per Milion de Tokeni
Intrare$1.75
Ieșire$14.00
Intrare din cache$0.175 (reducere 90%)

GPT-5.2-Codex este disponibil pe toate platformele Codex pentru utilizatorii plătiți ChatGPT și ca model API standalone.

Ce Înseamnă GPT-5.2-Codex pentru Programarea Agentică

Lansarea continuă o tendință la nivel de industrie: modelele de IA trec de la completarea codului la agenți de programare susținuți. Codex de la OpenAI, Claude Code de la Anthropic și GitHub Agentic Workflows vizează sarcini de inginerie în mai mulți pași cu intervenție umană minimă.

Întrebări frecvente

Ce este GPT-5.2-Codex?
GPT-5.2-Codex este varianta optimizată pentru programare a modelului GPT-5.2 de la OpenAI, lansată pe 14 ianuarie 2026. Este construit special pentru fluxuri de lucru agentice unde modelul execută sesiuni susținute de inginerie software în mai mulți pași. Obține 56.4% pe SWE-Bench Pro și 64.0% pe Terminal-Bench 2.0, îmbunătățind scorurile de 55.6% și 62.2% ale modelului de bază GPT-5.2. Modelul suportă o fereastră de context de 400K tokeni de intrare și 128K tokeni de ieșire.
Cât costă GPT-5.2-Codex?
GPT-5.2-Codex costă $1.75 per milion de tokeni de intrare și $14 per milion de tokeni de ieșire. Intrările din cache beneficiază de o reducere de 90%, aducând rata efectivă la $0.175 per milion de tokeni. Acest lucru îl face semnificativ mai ieftin decât Claude Opus 4.6 la $5/$25 per milion de tokeni, deși cele două modele diferă în performanța pe benchmark-uri și seturi de funcționalități.
Ce este compactarea contextului în GPT-5.2-Codex?
Compactarea contextului este o funcționalitate care comprimă contextul conversației anterioare păstrând starea critică a sarcinii. Acest lucru permite GPT-5.2-Codex să susțină sesiuni de programare de mai multe ore fără a pierde scopul proiectului. Când o sesiune se apropie de limita ferestrei de context, modelul rezumă contextul mai vechi în loc să îl elimine, permițând sarcini mai lungi și mai complexe fără repornire.
Cum se compară GPT-5.2-Codex cu Claude Opus 4.6?
Pe Terminal-Bench 2.0, Claude Opus 4.6 deține cel mai mare scor, înaintea scorului de 64.0% al GPT-5.2-Codex. Pe SWE-Bench Pro, GPT-5.2-Codex obține 56.4%. Cele două modele au abordări diferite: GPT-5.2-Codex oferă un context de intrare mai mare (400K tokeni vs. 200K standard pentru Claude) și preț mai mic, în timp ce Claude Opus 4.6 oferă agent teams și scoruri mai mari la raționament precum Humanity's Last Exam.

Rămâi la curent

Primește ultimele știri AI în inbox-ul tău.

Distribuie