GPT-5 est sorti en 2025 avec une communication ambiguë. Après 6 mois d'utilisation quotidienne, voici mes conclusions techniques, loin du bruit.
Ce qui a vraiment progressé
Raisonnement multi-étape
Les tâches qui demandent de tenir 10-15 étapes logiques sans dériver sont nettement mieux traitées. Sur mon benchmark interne (résolution de tickets techniques complexes), le taux de réponse correcte est passé de 71 % (GPT-4o) à 88 % (GPT-5).
Tool use fiable
GPT-5 ne se mélange plus les pinceaux sur les appels parallèles. Les cas où l'ancien modèle rappelait un tool avec des arguments déjà vus ont disparu.
Context window 1M tokens natif
Fini le plafond à 128k. Je peux coller un repo de 400k tokens dans un prompt et demander une analyse. Qualité stable jusqu'à 600k, dégradation progressive au-delà.
Coût en baisse
Tarif GPT-5 / million de tokens input : 3,5 $ (contre 5 $ pour GPT-4o). Output : 10 $ (contre 15 $). Pour du volume, c'est significatif.
Ce qui n'a pas bougé
- La tendance à inventer des URLs reste présente sur les tâches RAG mal ancrées.
- Les données récentes post-training restent limitées (cutoff fin 2025 sur ma version).
- Pas de progrès majeur sur les tâches créatives pures vs Claude.
Ce qui a régressé
Rare mais notable : GPT-5 est devenu un peu trop "corporate" dans son ton par défaut. Les réponses sont plus léchées mais parfois moins directes. Solution : un system prompt explicite "réponds de façon directe, sans disclaimers inutiles".
Mon usage en 2026
- Tâches à très long contexte (audit de codebase entière).
- Génération de contenu marketing (où son ton policé est un atout).
- Brainstorming produit (créativité latérale supérieure).
Pour le code et le raisonnement profond, Claude reste mon choix par défaut.
Le vrai game-changer
Ce n'est pas GPT-5 en tant que tel, c'est la maturation de l'écosystème autour : Realtime API, Assistants v3, et le support natif des structured outputs avec schémas stricts. C'est ça qui a vraiment changé mes intégrations.