Code Velocity
Модели на ВИ

GPT-5.2-Codex: Агентски модел за кодирање од OpenAI

·6 мин читање·OpenAI·Оригинален извор
Сподели
Графикон на бенчмаркови на GPT-5.2-Codex покажувајќи резултати на SWE-Bench Pro и Terminal-Bench 2.0 споредено со базниот модел GPT-5.2

Резултати на бенчмаркови на GPT-5.2-Codex

OpenAI го објави GPT-5.2-Codex на 14 јануари 2026, пет недели по базниот GPT-5.2 модел. Тој е насочен кон агентско кодирање: повеќечекорни сесии каде моделот планира, пишува код, извршува тестови и повторува при неуспеси.

Моделот постигнува 56.4% на SWE-Bench Pro (од 55.6% на базниот GPT-5.2) и 64.0% на Terminal-Bench 2.0 (од 62.2%). Двата бенчмаркови тестираат реални задачи за кодирање, не изолирано генерирање на код.

GPT-5.2-Codex vs GPT-5.2 vs Claude Opus 4.6

БенчмаркGPT-5.2-CodexGPT-5.2Claude Opus 4.6
SWE-Bench Pro56.4%55.6%
Terminal-Bench 2.064.0%62.2%#1
Прозорец за контекст (влез)400K128K200K (1M beta)
Излезни токени128K128K128K

GPT-5.2-Codex ги балансира цената и перформансите. Claude Opus 4.6 води на Terminal-Bench 2.0 и Humanity's Last Exam, додека GPT-5.2-Codex конкурира на цена и големина на прозорецот за контекст.

Клучни карактеристики за програмери

Компактирање на контекст

Како и функцијата за компактирање на Claude Opus 4.6, GPT-5.2-Codex го компресира претходниот контекст додека ја зачувува состојбата на задачата. Ова овозможува повеќечасовни сесии за кодирање каде моделот го следи целиот проект дури и кога разговорот го надминува прозорецот за контекст.

Завршување на задачи со долг хоризонт

Моделот е оптимизиран за задачи што опфаќаат многу чекори: големи рефакторирања, миграции на бази на код и имплементации на функции во повеќе датотеки. Кога пристапот не успее, GPT-5.2-Codex се прилагодува и пробува повторно наместо да ја рестартира задачата.

Вградено откривање на ранливости

GPT-5.2-Codex вклучува откривање на ранливости за време на генерирање на код. Тимовите на кои им е потребно подлабоко скенирање можат да користат специјализирани алатки како Claude Code Security, кој нуди повеќефазна верификација со филтрирање на лажни позитивни резултати.

Поддршка за Windows средина

OpenAI ги подобри перформансите на GPT-5.2-Codex за Windows развој, адресирајќи ја Unix-центричната оптимизација на претходните модели.

Цени на GPT-5.2-Codex

НивоЦена за милион токени
Влез$1.75
Излез$14.00
Кеширан влез$0.175 (попуст 90%)

GPT-5.2-Codex е достапен на сите Codex платформи за платени корисници на ChatGPT и како самостоен API модел.

Што значи GPT-5.2-Codex за агентското кодирање

Објавувањето ја одразува промената на целата индустрија од комплетирање на код кон постојани агенти за кодирање. Codex на OpenAI, Claude Code на Anthropic и GitHub Agentic Workflows сите се насочени кон повеќечекорни инженерски задачи со минимална човечка интервенција.

Често поставувани прашања

Што е GPT-5.2-Codex?
GPT-5.2-Codex е варијанта на GPT-5.2 моделот од OpenAI оптимизирана за кодирање, објавена на 14 јануари 2026. Специјално е изградена за агентски работни текови за кодирање каде моделот извршува постојани, повеќечекорни софтверски инженерски сесии. Постигнува 56.4% на SWE-Bench Pro и 64.0% на Terminal-Bench 2.0, подобрувајќи ги резултатите на базниот GPT-5.2 модел од 55.6% и 62.2% соодветно. Моделот поддржува прозорец за контекст од 400K влезни и 128K излезни токени.
Колку чини GPT-5.2-Codex?
GPT-5.2-Codex чини $1.75 за милион влезни токени и $14 за милион излезни токени. Кеширани влезови добиваат попуст од 90%, со ефективна цена од $0.175 за милион токени. Ова го прави значително поевтин од Claude Opus 4.6 по $5/$25 за милион токени, иако двата модела се разликуваат во перформанси на бенчмаркови и карактеристики.
Што е компактирање на контекст во GPT-5.2-Codex?
Компактирањето на контекст е функција што го компресира претходниот контекст на разговорот додека ја зачувува критичната состојба на задачата. Ова му овозможува на GPT-5.2-Codex да одржува повеќечасовни сесии за кодирање без да го изгуби прегледот на проектот. Кога сесијата се приближува до лимитот на прозорецот за контекст, моделот го сумира постариот контекст наместо да го отфрли, овозможувајќи подолги и покомплексни задачи без рестартирање.
Како се споредува GPT-5.2-Codex со Claude Opus 4.6?
На Terminal-Bench 2.0, Claude Opus 4.6 го држи врвниот резултат, пред GPT-5.2-Codex со 64.0%. На SWE-Bench Pro, GPT-5.2-Codex постигнува 56.4%. Двата модела имаат различни пристапи: GPT-5.2-Codex нуди поголем влезен контекст (400K токени наспроти 200K на Claude) и пониски цени, додека Claude Opus 4.6 нуди агентски тимови и повисоки резултати на задачи за размислување како Humanity's Last Exam.

Бидете информирани

Добивајте ги најновите AI вести на е-пошта.

Сподели