Code Velocity
AI модели

GPT-5.2-Codex: Агентният модел за програмиране на OpenAI

·6 мин четене·OpenAI·Оригинален източник
Сподели
Диаграма с бенчмаркове на GPT-5.2-Codex, показваща резултатите от SWE-Bench Pro и Terminal-Bench 2.0 в сравнение с базовия модел GPT-5.2

Резултати от бенчмаркове на GPT-5.2-Codex

OpenAI пусна GPT-5.2-Codex на 14 януари 2026 г., пет седмици след базовия модел GPT-5.2. Той е насочен към агентно програмиране: многостъпкови сесии, при които моделът планира, пише код, изпълнява тестове и итерира при грешки.

Моделът постига 56,4% на SWE-Bench Pro (от 55,6% на базовия GPT-5.2) и 64,0% на Terminal-Bench 2.0 (от 62,2%). И двата бенчмарка тестват реални задачи за програмиране, а не изолирано генериране на код.

GPT-5.2-Codex срещу GPT-5.2 срещу Claude Opus 4.6

БенчмаркGPT-5.2-CodexGPT-5.2Claude Opus 4.6
SWE-Bench Pro56,4%55,6%
Terminal-Bench 2.064,0%62,2%#1
Контекстен прозорец (вход)400K128K200K (1M бета)
Изходни токени128K128K128K

GPT-5.2-Codex балансира цена и производителност. Claude Opus 4.6 води на Terminal-Bench 2.0 и Humanity's Last Exam, докато GPT-5.2-Codex се конкурира по цена и размер на контекстния прозорец.

Ключови функции за разработчици

Компресия на контекст

Подобно на функцията за компресия на Claude Opus 4.6, GPT-5.2-Codex компресира по-ранния контекст, запазвайки състоянието на задачата. Това позволява многочасови сесии за програмиране, при които моделът проследява целия проект дори когато разговорът надвишава контекстния прозорец.

Изпълнение на дългосрочни задачи

Моделът е оптимизиран за задачи с много стъпки: мащабни рефакторинги, миграции на кодови бази и имплементации на функции в множество файлове. Когато подходът се провали, GPT-5.2-Codex коригира и опитва отново, вместо да рестартира задачата.

Вградено откриване на уязвимости

GPT-5.2-Codex включва откриване на уязвимости по време на генериране на код. Екипите, нуждаещи се от по-дълбоко сканиране, могат да използват специализирани инструменти като Claude Code Security, който предлага многоетапна проверка с филтриране на фалшиви положителни резултати.

Поддръжка на Windows среда

OpenAI подобри производителността на GPT-5.2-Codex при разработка под Windows, адресирайки Unix-центричната оптимизация на по-ранните модели.

Цени на GPT-5.2-Codex

НивоЦена за милион токена
Вход$1,75
Изход$14,00
Кеширан вход$0,175 (90% отстъпка)

GPT-5.2-Codex е достъпен на всички Codex платформи за платени потребители на ChatGPT и като самостоятелен API модел.

Какво означава GPT-5.2-Codex за агентното програмиране

Изданието отразява индустриален преход от допълване на код към устойчиви агенти за програмиране. OpenAI Codex, Claude Code на Anthropic и GitHub Agentic Workflows са насочени към многостъпкови инженерни задачи с минимална човешка намеса.

Оригинален източник

https://openai.com/index/introducing-gpt-5-2-codex/

Често задавани въпроси

Какво е GPT-5.2-Codex?
GPT-5.2-Codex е оптимизираният за програмиране вариант на модела GPT-5.2 от OpenAI, пуснат на 14 януари 2026 г. Създаден е специално за агентни работни процеси за програмиране, при които моделът провежда продължителни, многостъпкови сесии за софтуерно инженерство. Постига 56,4% на SWE-Bench Pro и 64,0% на Terminal-Bench 2.0, подобрявайки 55,6% и 62,2% на базовия GPT-5.2. Моделът поддържа 400K входен и 128K изходен контекстен прозорец.
Колко струва GPT-5.2-Codex?
GPT-5.2-Codex струва $1,75 за милион входни токена и $14 за милион изходни токена. Кешираните входове получават 90% отстъпка, което прави ефективната кеширана цена $0,175 за милион токена. Това го прави значително по-евтин от Claude Opus 4.6 при $5/$25 за милион токена, въпреки че двата модела се различават по бенчмарк резултати и набор от функции.
Какво е компресия на контекст в GPT-5.2-Codex?
Компресията на контекст е функция, която компресира по-ранния контекст на разговора, запазвайки критичното състояние на задачата. Това позволява на GPT-5.2-Codex да поддържа многочасови сесии за програмиране без загуба на обхвата на проекта. Когато сесията наближи лимита на контекстния прозорец, моделът обобщава по-стария контекст вместо да го изхвърля, което позволява по-дълги и по-сложни задачи без рестартиране.
Как се сравнява GPT-5.2-Codex с Claude Opus 4.6?
На Terminal-Bench 2.0 Claude Opus 4.6 държи най-високия резултат, изпреварвайки 64,0% на GPT-5.2-Codex. На SWE-Bench Pro GPT-5.2-Codex постига 56,4%. Двата модела имат различен подход: GPT-5.2-Codex предлага по-голям входен контекст (400K токена срещу 200K стандарт на Claude) и по-ниски цени, докато Claude Opus 4.6 предлага агентни екипи и по-високи резултати в тестове за разсъждение като Humanity's Last Exam.

Бъдете информирани

Получавайте последните AI новини по имейл.

Сподели