Code Velocity
Модели ИИ

GPT-5.2-Codex: агентная модель программирования от OpenAI

·6 мин чтения·OpenAI·Первоисточник
Поделиться
Диаграмма бенчмарков GPT-5.2-Codex с результатами SWE-Bench Pro и Terminal-Bench 2.0 в сравнении с базовой моделью GPT-5.2

Результаты бенчмарков GPT-5.2-Codex

OpenAI выпустила GPT-5.2-Codex 14 января 2026 года, через пять недель после базовой модели GPT-5.2. Модель ориентирована на агентное программирование: многоэтапные сессии, где модель планирует, пишет код, запускает тесты и исправляет ошибки.

Модель набирает 56,4% на SWE-Bench Pro (рост с 55,6% у базовой GPT-5.2) и 64,0% на Terminal-Bench 2.0 (рост с 62,2%). Оба бенчмарка тестируют реальные задачи программирования, а не изолированную генерацию кода.

GPT-5.2-Codex vs GPT-5.2 vs Claude Opus 4.6

БенчмаркGPT-5.2-CodexGPT-5.2Claude Opus 4.6
SWE-Bench Pro56,4%55,6%
Terminal-Bench 2.064,0%62,2%#1
Контекстное окно (вход)400K128K200K (1M бета)
Выходные токены128K128K128K

GPT-5.2-Codex сочетает стоимость и производительность. Claude Opus 4.6 лидирует на Terminal-Bench 2.0 и Humanity's Last Exam, тогда как GPT-5.2-Codex конкурирует ценой и размером контекстного окна.

Ключевые функции для разработчиков

Context Compaction

Как и функция compaction в Claude Opus 4.6, GPT-5.2-Codex сжимает ранний контекст, сохраняя состояние задачи. Это позволяет вести многочасовые сессии программирования, где модель отслеживает весь проект, даже когда разговор превышает контекстное окно.

Выполнение долгосрочных задач

Модель оптимизирована для задач, охватывающих множество шагов: крупные рефакторинги, миграции кодовых баз и реализация функций в нескольких файлах. Когда подход не срабатывает, GPT-5.2-Codex корректирует стратегию и повторяет попытку, а не начинает задачу заново.

Встроенное обнаружение уязвимостей

GPT-5.2-Codex включает обнаружение уязвимостей при генерации кода. Команды, которым нужно более глубокое сканирование, могут использовать специализированные инструменты, такие как Claude Code Security, предлагающий многоэтапную верификацию с фильтрацией ложных срабатываний.

Поддержка среды Windows

OpenAI улучшила производительность GPT-5.2-Codex в среде Windows, устранив ориентацию на Unix, характерную для более ранних моделей.

Цены на GPT-5.2-Codex

УровеньСтоимость за миллион токенов
Вход$1,75
Выход$14,00
Кэшированный вход$0,175 (скидка 90%)

GPT-5.2-Codex доступен во всех интерфейсах Codex для платных пользователей ChatGPT и как отдельная API-модель.

Что GPT-5.2-Codex означает для агентного программирования

Этот релиз отражает отраслевой сдвиг от автодополнения кода к полноценным агентам программирования. Codex от OpenAI, Claude Code от Anthropic и GitHub Agentic Workflows — все ориентированы на многоэтапные инженерные задачи с минимальным участием человека.

Часто задаваемые вопросы

Что такое GPT-5.2-Codex?
GPT-5.2-Codex — это оптимизированный для программирования вариант модели GPT-5.2 от OpenAI, выпущенный 14 января 2026 года. Он создан специально для агентных рабочих процессов, где модель ведёт продолжительные многоэтапные сессии разработки. Набирает 56,4% на SWE-Bench Pro и 64,0% на Terminal-Bench 2.0, превосходя базовую модель GPT-5.2 с показателями 55,6% и 62,2% соответственно. Модель поддерживает контекстное окно ввода 400K и вывода 128K токенов.
Сколько стоит GPT-5.2-Codex?
GPT-5.2-Codex стоит $1,75 за миллион входных токенов и $14 за миллион выходных токенов. Кэшированные входные данные получают скидку 90%, что снижает эффективную стоимость до $0,175 за миллион токенов. Это значительно дешевле Claude Opus 4.6 по $5/$25 за миллион токенов, хотя модели различаются по результатам бенчмарков и набору функций.
Что такое context compaction в GPT-5.2-Codex?
Context compaction — это функция, которая сжимает ранний контекст разговора, сохраняя ключевое состояние задачи. Это позволяет GPT-5.2-Codex вести многочасовые сессии программирования без потери контекста проекта. Когда сессия приближается к лимиту контекстного окна, модель резюмирует более ранний контекст вместо его удаления, что позволяет выполнять более длительные и сложные задачи без перезапуска.
Как GPT-5.2-Codex сравнивается с Claude Opus 4.6?
На Terminal-Bench 2.0 Claude Opus 4.6 удерживает первое место, опережая GPT-5.2-Codex с его 64,0%. На SWE-Bench Pro GPT-5.2-Codex набирает 56,4%. Модели используют разные подходы: GPT-5.2-Codex предлагает больший входной контекст (400K токенов против стандартных 200K у Claude) и более низкую цену, тогда как Claude Opus 4.6 предлагает agent teams и более высокие результаты на задачах рассуждения, таких как Humanity's Last Exam.

Будьте в курсе

Получайте последние новости ИИ на почту.

Поделиться