Bug ChatGPT : l'IA délire complètement, et c'est drôle !
ChatGPT a eu un petit coup de fatigue cette semaine, au point de perdre complètement la raison ! Des utilisateurs ont eu le droit à des réponses sans queue ni tête, l'IA se laissant même aller à des envolées lyriques…
ChatGPT est une IA vraiment incroyable. Le chatbot est capable de répondre à tout, ou presque, en utilisant un vocabulaire et des phrases proches de ceux que pourrait prononcer un être humain. Le résultat est vraiment bluffant ! Pas étonnant qu'il soit devenu indispensable pour nombre d'utilisateurs ! Mais, comme le mentionne OpenAI lui-même, "ChatGPT peut faire des erreurs. Pensez à vérifier les informations importantes". Sauf que, dans la journée du 20 février, l'IA est totalement partie en vrille – le stade de l'erreur a largement été dépassé ! De nombreux utilisateurs ont fait savoir sur Reddit qu'elle leur donnait des réponses hallucinantes, en mélangeant les langues, en se lançant dans des envolées lyriques, en écrivant des phrases sans queue ni tête... Et ce, que les requêtes aient été effectuées en anglais, en français ou en espagnol. De nombreuses captures d'écran sont là pour témoigner de cet instant de folie. Heureusement, OpenAI a rapidement eu vent du problème et semble avoir réglé le souci.
ChatGPT : des réponses sans queue ni tête
Ce qui s'est passé est très différent des habituelles hallucinations, qui conduisent les IA à affirmer avec aplomb des informations fausses ou à sortir de leur rôle – on se souvient du dérapage du chatbot de Bing (rebaptisé Copilot depuis), qui traversait des crises existentielles et insultait les internautes (voir notre article). Il s'agit ici de réponses sans aucun sens à des requêtes pourtant simples. La situation est d'autant plus étrange que, parmi les utilisateurs ayant rencontré ce problème, une grande partie d'entre eux ont eu recours à GPT-4, le modèle de langage le plus avancé d'OpenAI — et, donc, en principe, le moins susceptible de faire des erreurs —, par le biais de l'abonnement payant.
Ainsi, kefirakk a décrit avoir eu l'impression de subir une "attaque cérébrale au format texte", avec un mélange d'anglais et d'espagnol, et des tirades "dignes d'Orange mécanique", alors qu'il interrogeait seulement le chatbot sur les différents types de vernis. Idem pour u/JUBAnonymous, qui lui demandait de réfléchir à l'hypothèse d'un monde créé il y a seulement cinq secondes. Résultat : il a eu droit à un paragraphe décousu où se mêlaient plusieurs langue. Pire, l'IA "semblait inventer des mots d'une manière très pompeuse qui n'existent dans aucune autre langue." Quant à NoBoysenberry971, il a commencé à lui faire des déclarations dignes de Shakespeare, alors que l'internaute se renseignait sur le langage de programmation Groq. Terminons avec l'exemple du Français Sylvain Peyronnet, à qui le chatbot s'est mis à dire que "la subsomption ou l'écart périodique le plus délicieux – mais axialément débilitant aussi de millisecondes ou discrets dans l'éphèbe du quantitatif – est le traître". De notre côté, nous n'avons pas été en mesure de reproduire les dérapages de ChatGPT dans l'après-midi du 21 février.
En effet, s'il n'y a pas eu de déclaration officielle d'OpenAI ou de Sam Altman, y compris sur X, le tableau de bord de l'entreprise, qui permet de connaître la situation des différents composants de l'entreprise (ChatGPT, l'API, etc.), a reconnu un incident en cours. "Réponses inattendues de ChatGPT — Nous enquêtons sur les rapports faisant état de réponses inattendues de la part de ChatGPT", peut-on lire pour la nuit de mardi à mercredi. La société a depuis ajouté avoir "identifié" le problème et y avoir remédié, bien que la situation reste sous surveillance.