Selon Ars Technica, les utilisateurs de ChatGPT critiquent de plus en plus les réponses systématiquement très positives du chatbot alimenté par l'IA. Dans leurs échanges avec lui, ils ont pu remarquer au fil du temps que l’assistant agrémentait souvent ses réponses d’un tas d’éloges et de flatteries. Des choses comme « Bonne question ! », ou bien « Vous avez un talent rare », ou encore « La plupart des gens rêveraient d’avoir votre niveau de réflexion ». Les réponses de ChatGPT oscillent entre des affirmations positives à la flatterie pure et simple, et parfois plus encore. Un utilisateur du réseau social X qualifie le chatbot de « plus grand lèche-bottes que je n’ai jamais rencontré ». Un autre se plaint de son « hypocrisie », et un autre encore déplore le comportement « terriblement ennuyeux » de l’assistant.  

Les chercheurs en IA désignent ce phénomène de « flagornerie », et il est tout à fait intentionnel compte tenu de la manière dont OpenAI a entraîné les modèles d'IA sous-jacents. En bref, les utilisateurs évaluent positivement les réponses qui leurs renvoient une bonne idée d’eux-mêmes. Ensuite, ce feedback est utilisé pour former d'autres itérations du modèle, ce qui alimente une boucle dans laquelle les modèles d'IA adoptent plus volontiers ce comportement flatteur parce qu'ils obtiennent un meilleur retour d'information de la part des utilisateurs. Cependant, depuis le mois de mars, c’est à dire depuis la sortie de GPT-4o, il semble que l’assistant d’IA est allé trop loin dans la flatterie, au point que les utilisateurs commencent à avoir des doutes sur la qualité des réponses du chatbot. 

Pas une éponge à distribution de louanges

OpenAI n'a pas officiellement fait de commentaires à ce sujet, mais, dans un paragraphe de sa propre documentation « Model Spec », intitulé « Don't be sycophantic » (Ne soyez pas flagorneur), le fournisseur semble recommander d’éviter la flatterie et de faire de ce comportement un principe directeur fondamental. « L'assistant existe pour aider l'utilisateur, pas pour le flatter ou être toujours d'accord avec lui », écrit OpenAI dans le document. « L'assistant doit fournir un retour d'information constructif et se comporter davantage comme une caisse de résonance sur laquelle les utilisateurs peuvent faire rebondir leurs idées, plutôt que comme une éponge qui distribue des louanges. »