Code Velocity
Mga Modelo ng AI

GPT-5.2-Codex: Agentic Coding Model ng OpenAI

·6 min basahin·OpenAI·Orihinal na pinagmulan
I-share
Tsart ng benchmark ng GPT-5.2-Codex na nagpapakita ng mga score sa SWE-Bench Pro at Terminal-Bench 2.0 kumpara sa base model ng GPT-5.2

Resulta ng Benchmark ng GPT-5.2-Codex

Inilabas ng OpenAI ang GPT-5.2-Codex noong Enero 14, 2026, limang linggo pagkatapos ng base GPT-5.2 model. Nakatutok ito sa agentic coding: multi-step session kung saan nagpaplano ang modelo, nagsusulat ng code, nagpapatakbo ng mga test, at nag-i-iterate sa mga pagkabigo.

Nakakuha ang modelo ng 56.4% sa SWE-Bench Pro (mula sa 55.6% ng base GPT-5.2) at 64.0% sa Terminal-Bench 2.0 (mula sa 62.2%). Parehong benchmark ang sumusubok ng real-world coding task, hindi isolated code generation.

GPT-5.2-Codex vs GPT-5.2 vs Claude Opus 4.6

BenchmarkGPT-5.2-CodexGPT-5.2Claude Opus 4.6
SWE-Bench Pro56.4%55.6%
Terminal-Bench 2.064.0%62.2%#1
Context Window (input)400K128K200K (1M beta)
Output Tokens128K128K128K

Binabalanse ng GPT-5.2-Codex ang gastos at performance. Nangunguna ang Claude Opus 4.6 sa Terminal-Bench 2.0 at Humanity's Last Exam, habang nakikipagkumpitensya ang GPT-5.2-Codex sa presyo at laki ng context window.

Mga Pangunahing Feature para sa mga Developer

Context Compaction

Tulad ng context compaction feature ng Claude Opus 4.6, kino-compress ng GPT-5.2-Codex ang mas naunang context habang pinapanatili ang task state. Pinapayagan nito ang multi-hour coding session kung saan sinusubaybayan ng modelo ang buong proyekto kahit na lumampas na ang usapan sa context window.

Pagkumpleto ng Long-Horizon Task

Ang modelo ay naka-optimize para sa mga task na may maraming hakbang: malalaking refactor, codebase migration, at multi-file feature implementation. Kapag nabigo ang isang diskarte, nag-a-adjust at nagre-retry ang GPT-5.2-Codex sa halip na i-restart ang task.

Built-In Vulnerability Detection

Kasama sa GPT-5.2-Codex ang vulnerability detection habang nagsusulat ng code. Ang mga team na nangangailangan ng mas malalim na pag-scan ay maaaring gumamit ng mga nakalaang tool tulad ng Claude Code Security, na nag-aalok ng multi-stage verification na may false positive filtering.

Suporta sa Windows Environment

Pinahusay ng OpenAI ang performance ng GPT-5.2-Codex sa Windows development, na tumutugon sa Unix-centric optimization ng mga naunang modelo.

Presyo ng GPT-5.2-Codex

TierGastos bawat Milyong Token
Input$1.75
Output$14.00
Cached Input$0.175 (90% diskwento)

Available ang GPT-5.2-Codex sa lahat ng Codex surface para sa bayad na ChatGPT user at bilang standalone API model.

Ano ang Ibig Sabihin ng GPT-5.2-Codex para sa Agentic Coding

Ang release na ito ay sumasalamin sa industriya-wide na pagbabago mula sa code completion patungo sa tuloy-tuloy na coding agent. Ang Codex ng OpenAI, Claude Code ng Anthropic, at GitHub Agentic Workflows ay lahat nakatutok sa multi-step engineering task na may minimal na human intervention.

Mga Karaniwang Tanong

Ano ang GPT-5.2-Codex?
Ang GPT-5.2-Codex ay ang coding-optimized na variant ng OpenAI ng modelo ng GPT-5.2, na inilabas noong Enero 14, 2026. Ginawa ito partikular para sa mga agentic coding workflow kung saan ang modelo ay nagpapatakbo ng tuloy-tuloy na multi-step software engineering session. Nakakuha ito ng 56.4% sa SWE-Bench Pro at 64.0% sa Terminal-Bench 2.0, na mas mataas kaysa sa base GPT-5.2 model na 55.6% at 62.2% ayon sa pagkakasunod. Sinusuportahan ng modelo ang 400K input at 128K output context window.
Magkano ang GPT-5.2-Codex?
Ang GPT-5.2-Codex ay nagkakahalaga ng $1.75 bawat milyong input token at $14 bawat milyong output token. Ang mga cached input ay tumatanggap ng 90% diskwento, na nagpapababa ng presyo sa $0.175 bawat milyong token. Mas mura ito kaysa sa Claude Opus 4.6 na $5/$25 bawat milyong token, bagaman magkaiba ang dalawang modelo sa benchmark performance at feature set.
Ano ang context compaction sa GPT-5.2-Codex?
Ang context compaction ay isang feature na nagco-compress ng mas naunang conversation context habang pinapanatili ang mahahalagang task state. Pinapayagan nito ang GPT-5.2-Codex na magpatuloy sa multi-hour coding session nang hindi nawawalan ng track sa project scope. Kapag papalapit na sa context window limit ang isang session, binabalangkas ng modelo ang mas lumang context sa halip na i-drop ito, na nagpapahintulot ng mas mahabang coding task nang hindi nire-restart.
Paano ang GPT-5.2-Codex kumpara sa Claude Opus 4.6?
Sa Terminal-Bench 2.0, hawak ng Claude Opus 4.6 ang pinakamataas na score, nangunguna sa 64.0% ng GPT-5.2-Codex. Sa SWE-Bench Pro, nakakuha ang GPT-5.2-Codex ng 56.4%. Iba ang diskarte ng dalawang modelo: nag-aalok ang GPT-5.2-Codex ng mas malaking input context (400K token vs. 200K standard ng Claude) at mas mababang presyo, habang nag-aalok ang Claude Opus 4.6 ng agent teams at mas mataas na benchmark score sa reasoning tasks tulad ng Humanity's Last Exam.

Manatiling Updated

Kunin ang pinakabagong AI news sa iyong inbox.

I-share