Passer au contenu

GPT-5.4 mini et nano : une IA plus rapide et moins gourmande chez OpenAI

OpenAI enchaîne les nouvelles versions de ses modèles IA. Après GPT-5.4 Thinking, place à deux déclinaisons plus légères, GPT-5.4 mini et nano. Moins coûteux, plus rapides, ils sont taillés pour des usages très concrets sans trop sacrifier les performances.

Chez OpenAI, la cadence ne ralentit pas. Début mars, l’entreprise lançait GPT-5.4 Thinking, son modèle le plus avancé pour les tâches complexes. Dans la foulée, GPT-5.3 Instant venait améliorer la fluidité des échanges. Et cette semaine, ce sont deux nouveaux venus qui arrivent : GPT-5.4 mini et GPT-5.4 nano. La proposition est simple : faire presque aussi bien, mais plus vite et à moindre coût.

Moins puissants, mais souvent plus utiles

OpenAI assume clairement le positionnement. « Dans ces contextes, le meilleur modèle n’est pas forcément le plus gros », explique l’entreprise. Tout dépend de l’usage : pour un assistant de code, un agent automatisé ou une application qui analyse des images en temps réel, la rapidité et la réactivité pèsent lourd dans la balance. GPT-5.4 mini incarne ce compromis. Il améliore les capacités de son prédécesseur sur le code, le raisonnement et la compréhension multimodale, tout en étant plus de deux fois plus rapide. GPT-5.4 nano va encore plus loin dans l’optimisation : c’est le modèle le plus léger de la gamme, il se destine aux tâches simples comme la classification, l’extraction d’informations ou certains usages basiques en programmation.

Sur le papier, OpenAI met en avant de nombreux benchmarks. Mais un indicateur suffit pour comprendre le gain : la capacité du modèle à corriger du code existant. Sur ce terrain, GPT-5.4 mini réussit environ 54 % des problèmes sur le test SWE-bench Pro, contre 46 % pour GPT-5 mini. Dit autrement : face à une série de bugs réels issus de projets logiciels, le modèle résout correctement plus d’un cas sur deux, contre moins d’un sur deux auparavant.

Ce type de test est particulièrement parlant, car il ne s’agit pas de simples questions théoriques. Le modèle doit analyser du code, comprendre un problème, proposer une correction et produire un résultat fonctionnel. C’est exactement ce que l’on attend d’un assistant de programmation. GPT-5.4 mini s’approche donc sérieusement du niveau du modèle principal, tout en étant plus rapide à exécuter. Le modèle nano, lui, se situe entre les deux : moins performant que le mini, mais largement au-dessus de GPT-5 mini.

Au-delà des performances, OpenAI pousse une logique assez pragmatique : utiliser le bon modèle au bon moment. Un modèle comme GPT-5.4 Thinking peut planifier les étapes, tandis que GPT-5.4 mini prend en charge les tâches intermédiaires : analyser du code, parcourir des fichiers ou interpréter des captures d’écran. Le tout avec plus de rapidité et surtout, pour moins cher. OpenAI précise d’ailleurs que le modèle mini « n’utilise que 30 % du quota de GPT-5.4 », ce qui permet de traiter des tâches simples pour environ un tiers du coût.

🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.

Source : OpenAI

Mode