Code Velocity
Моделі ШІ

GPT-5.2-Codex: Агентна модель кодування від OpenAI

·6 хв читання·OpenAI·Першоджерело
Поділитися
Діаграма бенчмарків GPT-5.2-Codex із результатами SWE-Bench Pro та Terminal-Bench 2.0 порівняно з базовою моделлю GPT-5.2

Результати бенчмарків GPT-5.2-Codex

OpenAI випустила GPT-5.2-Codex 14 січня 2026 року, через п'ять тижнів після базової моделі GPT-5.2. Модель орієнтована на агентне кодування: багатокрокові сеанси, де модель планує, пише код, запускає тести та ітерує над помилками.

Модель набирає 56,4% на SWE-Bench Pro (порівняно з 55,6% базової GPT-5.2) та 64,0% на Terminal-Bench 2.0 (порівняно з 62,2%). Обидва бенчмарки тестують реальні завдання кодування, а не ізольовану генерацію коду.

GPT-5.2-Codex проти GPT-5.2 проти Claude Opus 4.6

БенчмаркGPT-5.2-CodexGPT-5.2Claude Opus 4.6
SWE-Bench Pro56,4%55,6%
Terminal-Bench 2.064,0%62,2%#1
Контекстне вікно (вхід)400K128K200K (1M бета)
Вихідні токени128K128K128K

GPT-5.2-Codex балансує вартість та продуктивність. Claude Opus 4.6 лідирує на Terminal-Bench 2.0 та Humanity's Last Exam, тоді як GPT-5.2-Codex конкурує ціною та розміром контекстного вікна.

Ключові функції для розробників

Ущільнення контексту

Як і функція ущільнення Claude Opus 4.6, GPT-5.2-Codex стискає попередній контекст, зберігаючи стан завдання. Це дозволяє проводити багатогодинні сеанси кодування, де модель відстежує весь проєкт, навіть коли розмова перевищує контекстне вікно.

Виконання довгострокових завдань

Модель оптимізована для завдань, що охоплюють багато кроків: великих рефакторингів, міграцій кодових баз та реалізації функцій у кількох файлах. Коли підхід не вдається, GPT-5.2-Codex коригує та повторює спробу замість перезапуску завдання.

Вбудоване виявлення вразливостей

GPT-5.2-Codex включає виявлення вразливостей під час генерації коду. Команди, яким потрібне глибше сканування, можуть використовувати спеціалізовані інструменти, такі як Claude Code Security, що пропонує багатоетапну верифікацію з фільтрацією хибних спрацювань.

Підтримка середовища Windows

OpenAI покращила продуктивність GPT-5.2-Codex у розробці під Windows, вирішивши проблему Unix-орієнтованої оптимізації попередніх моделей.

Ціни на GPT-5.2-Codex

РівеньВартість за мільйон токенів
Вхідні$1,75
Вихідні$14,00
Кешовані вхідні$0,175 (знижка 90%)

GPT-5.2-Codex доступний на всіх платформах Codex для платних користувачів ChatGPT та як окрема API-модель.

Що означає GPT-5.2-Codex для агентного кодування

Випуск відображає загальногалузевий перехід від доповнення коду до тривалих агентів кодування. OpenAI Codex, Claude Code від Anthropic та GitHub Agentic Workflows — усі орієнтовані на багатокрокові інженерні завдання з мінімальним втручанням людини.

Поширені запитання

Що таке GPT-5.2-Codex?
GPT-5.2-Codex — це оптимізований для кодування варіант моделі GPT-5.2 від OpenAI, випущений 14 січня 2026 року. Він створений спеціально для агентних робочих процесів кодування, де модель виконує тривалі, багатокрокові сеанси розробки програмного забезпечення. Він набирає 56,4% на SWE-Bench Pro та 64,0% на Terminal-Bench 2.0, покращуючи результати базової моделі GPT-5.2 — 55,6% та 62,2% відповідно. Модель підтримує контекстне вікно на 400K вхідних і 128K вихідних токенів.
Скільки коштує GPT-5.2-Codex?
GPT-5.2-Codex коштує $1,75 за мільйон вхідних токенів та $14 за мільйон вихідних токенів. Кешовані вхідні дані отримують знижку 90%, що дає ефективну ціну $0,175 за мільйон токенів. Це значно дешевше за Claude Opus 4.6 з ціною $5/$25 за мільйон токенів, хоча моделі відрізняються результатами бенчмарків та набором функцій.
Що таке ущільнення контексту в GPT-5.2-Codex?
Ущільнення контексту — це функція, яка стискає попередній контекст розмови, зберігаючи критичний стан завдання. Це дозволяє GPT-5.2-Codex підтримувати багатогодинні сеанси кодування без втрати масштабу проєкту. Коли сеанс наближається до ліміту контекстного вікна, модель створює резюме старішого контексту замість його відкидання, що дозволяє виконувати довші та складніші завдання кодування без перезапуску.
Як GPT-5.2-Codex порівнюється з Claude Opus 4.6?
На Terminal-Bench 2.0 Claude Opus 4.6 утримує найвищий результат, випереджаючи GPT-5.2-Codex із 64,0%. На SWE-Bench Pro GPT-5.2-Codex набирає 56,4%. Моделі використовують різні підходи: GPT-5.2-Codex пропонує більший вхідний контекст (400K токенів проти стандартних 200K у Claude) та нижчу ціну, тоді як Claude Opus 4.6 пропонує команди агентів та вищі результати бенчмарків у задачах міркування, таких як Humanity's Last Exam.

Будьте в курсі

Отримуйте найсвіжіші новини ШІ на пошту.

Поділитися