Résultats des benchmarks de GPT-5.2-Codex
OpenAI a publié GPT-5.2-Codex le 14 janvier 2026, cinq semaines après le modèle de base GPT-5.2. Il cible le codage agentique : des sessions multi-étapes où le modèle planifie, écrit du code, exécute des tests et itère sur les échecs.
Le modèle obtient 56,4 % sur SWE-Bench Pro (contre 55,6 % pour le GPT-5.2 de base) et 64,0 % sur Terminal-Bench 2.0 (contre 62,2 %). Ces deux benchmarks testent des tâches de codage réelles, pas de la génération de code isolée.
GPT-5.2-Codex vs GPT-5.2 vs Claude Opus 4.6
| Benchmark | GPT-5.2-Codex | GPT-5.2 | Claude Opus 4.6 |
|---|---|---|---|
| SWE-Bench Pro | 56,4 % | 55,6 % | — |
| Terminal-Bench 2.0 | 64,0 % | 62,2 % | #1 |
| Fenêtre de contexte (entrée) | 400K | 128K | 200K (1M bêta) |
| Tokens en sortie | 128K | 128K | 128K |
GPT-5.2-Codex équilibre coût et performance. Claude Opus 4.6 mène sur Terminal-Bench 2.0 et Humanity's Last Exam, tandis que GPT-5.2-Codex rivalise sur le prix et la taille de la fenêtre de contexte.
Fonctionnalités clés pour les développeurs
Compaction de contexte
Comme la fonctionnalité de compaction de Claude Opus 4.6, GPT-5.2-Codex compresse le contexte antérieur tout en préservant l'état de la tâche. Cela permet des sessions de codage de plusieurs heures où le modèle suit l'ensemble du projet même lorsque la conversation dépasse la fenêtre de contexte.
Complétion de tâches à long terme
Le modèle est optimisé pour les tâches s'étendant sur de nombreuses étapes : refactorisations majeures, migrations de codebase et implémentations de fonctionnalités multi-fichiers. Lorsqu'une approche échoue, GPT-5.2-Codex s'ajuste et réessaie plutôt que de redémarrer la tâche.
Détection de vulnérabilités intégrée
GPT-5.2-Codex inclut la détection de vulnérabilités lors de la génération de code. Les équipes nécessitant une analyse plus approfondie peuvent utiliser des outils dédiés comme Claude Code Security, qui offre une vérification multi-étapes avec filtrage des faux positifs.
Support des environnements Windows
OpenAI a amélioré les performances de GPT-5.2-Codex pour le développement sous Windows, corrigeant l'optimisation centrée sur Unix des modèles précédents.
Tarification de GPT-5.2-Codex
| Niveau | Coût par million de tokens |
|---|---|
| Entrée | 1,75 $ |
| Sortie | 14,00 $ |
| Entrée en cache | 0,175 $ (remise de 90 %) |
GPT-5.2-Codex est disponible sur toutes les surfaces Codex pour les utilisateurs payants de ChatGPT et en tant que modèle API autonome.
Ce que GPT-5.2-Codex signifie pour le codage agentique
Cette sortie reflète un virage à l'échelle de l'industrie, de la complétion de code vers des agents de codage soutenus. Le Codex d'OpenAI, Claude Code d'Anthropic et les GitHub Agentic Workflows ciblent tous des tâches d'ingénierie multi-étapes avec une intervention humaine minimale.
Source originale
https://openai.com/index/introducing-gpt-5-2-codex/Questions Fréquentes
Qu'est-ce que GPT-5.2-Codex ?
Combien coûte GPT-5.2-Codex ?
Qu'est-ce que la compaction de contexte dans GPT-5.2-Codex ?
Comment GPT-5.2-Codex se compare-t-il à Claude Opus 4.6 ?
Restez informé
Recevez les dernières actualités IA dans votre boîte mail.
