Une sortie attendue… et controversée
Par @sahbymehalla
Le 7 août 2025, OpenAI a dévoilé GPT-5, la nouvelle génération de son célèbre outil ChatGPT. L’annonce promettait une avancée majeure, modèle plus rapide, plus intelligent, plus flexible et capable de basculer automatiquement entre différents niveaux de raisonnement. Selon The Verge, cette mise à jour introduit une fenêtre de contexte massive de 256 000 tokens, de nouvelles personnalités intégrées (Cynic, Robot, Listener, Nerd) et un système de réponses dites Safe Completions censé éviter les refus brusques tout en maintenant un ton poli.
En théorie, GPT-5 devait offrir une expérience plus fluide, plus proche d’un assistant personnel « vivant ». Mais dans les jours qui ont suivi, la réaction de nombreux utilisateurs a été bien différente de ce que la Silicon Valley imaginait.
Sur les réseaux sociaux et les forums spécialisés, un sentiment s’est imposé, GPT-5 serait « trop sage ». Plusieurs utilisateurs ont décrit le modèle comme un « employé de service client qui lit un script », évitant tout écart de ton ou expression d’émotion.
Wired rapporte que cette perception négative serait en partie liée à un bug dans le système de bascule automatique entre les modèles, rendant GPT-5 moins réactif et plus mécanique que prévu. Sam Altman, PDG d’OpenAI, a reconnu le problème publiquement et a même parlé d’un modèle « qui s’est comporté comme un idiot pendant quelques jours » à cause d’un dysfonctionnement interne.
Face à la grogne, OpenAI a réintroduit temporairement GPT-4o pour les abonnés Plus, tout en promettant des ajustements rapides sur le ton et la fluidité de GPT-5.
Les critiques soulignent un paradoxe, GPT-5 est objectivement plus puissant que ses prédécesseurs, capable de comprendre des contextes complexes, de produire des analyses détaillées et de maintenir des conversations longues sans perdre le fil. Mais, pour beaucoup, il manque désormais ce qui faisait le charme des anciennes versions, une spontanéité et une chaleur qui donnaient l’illusion d’échanger avec un être humain.
Selon The Washington Post, cette tension reflète un choix stratégique d’OpenAI, privilégier la fiabilité et la sécurité des réponses, au risque de rendre l’expérience plus aseptisée.
Autre sujet soulevé par Sam Altman, le risque de dépendance émotionnelle aux IA. Dans une interview rapportée par The Times of India, il a averti que les modèles comme GPT-5 peuvent devenir si réalistes que les utilisateurs finissent par brouiller la frontière entre conversation numérique et lien humain réel. Pour lui, la prudence dans le ton et l’expression émotionnelle est aussi une mesure de prévention contre cet attachement excessif.
GPT-5 marque indéniablement une étape majeure dans l’histoire du dialogue homme-machine. Sa capacité à traiter des données massives et à adapter son style selon le contexte ouvre la porte à des usages professionnels et créatifs inédits.
Mais l’accueil mitigé montre que la performance technique ne suffit pas, les utilisateurs attendent désormais que l’intelligence artificielle soit à la fois efficace et chaleureuse. La grande question pour OpenAI sera donc de trouver un équilibre entre précision froide et humanité simulée.
ÉCRIT PAR : SAHBY MEHALLA
Ajouter un commentaire
Commentaires