ChatGPT : un marqueur pour reconnaitre les textes rédigés par l'IA
ChatGPT : un marqueur pour reconnaitre les textes rédigés par l'IA
ChatGPT, l'intelligence artificielle surdouée fascine autant qu'elle inquiète par la qualité de ses réponses sur des sujets complexes. Au point que ses créateurs vont insérer une signature dans les textes générés pour éviter les abus.
Les nouveaux outils développés par OpenAI sont en train de révolutionner le secteur de l'intelligence artificielle, comme ses générateurs d'images DALL-E et d'images en 3D Point-E. Mais celui qui est actuellement sous le feu des projecteurs est ChatGPT (Chat Generative Pre-Trained Transformer), une IA conversationnelle capable de produire des textes complexes sur demande. Elle est capable de rédiger en quelques secondes un texte valide qu'un être humain mettrait des heures à écrire, de répondre à des questions complexes, d'admettre ses erreurs, de s'engager dans des débats et même de refuser de répondre aux demandes jugées incorrectes, le tout de façon naturelle, comme l'explique l'entreprise dans un communiqué. Entré dans une phase de test mercredi 30 novembre, ChatGPT connait depuis un succès fulgurant et dépasse déjà un million d'utilisateurs ! Lettre de motivation, tutos DIY (do it yourself ou fapites le vous-même, en français), articles de presse, scripts de séries... Les utilisations se multiplient et les développeurs sont déjà en train de mettre au point de nouveaux outils. Et, sans grande surprise, ce sont les étudiants qui sont les premiers à en profiter.
Les petits malins y voient un gain de temps précieux ainsi que la possibilité d'obtenir une bonne note sans trop d'efforts. Actuellement, l'IA fait encore des erreurs mais, au vu de la vitesse à laquelle cette technologie progresse, elle devrait bientôt pouvoir faire illusion – au grand dam des enseignant, dont les outils anti-triches ne peuvent détecter la supercherie puisque ChatGPT rédige ses réponses de manière aléatoire – il formule le texte différemment à chaque fois qu'un utilisateur lui pose une question. Les enseignants organisent déjà leur riposte : devoir sur table en présentiel, oraux surprise, corpus de romans que l'IA ne maîtrise pas... Mais les développeurs craignent que cette technologie soit utilisée à des fins plus malveillantes, comme la propagande – en spamant sur Internet par exemple –, imiter le style d'écriture d'une personne pour l'incriminer, ou encore écrire une œuvre et s'en attribuer tout le mérite. C'est pourquoi ils cherchent un moyen de corriger ce biais.
ChatGPT : une signature pour reconnaitre les textes générés par l'IA
Scott Aaronson est un chercheur qui travaille pour OpenAi afin de trouver un moyen de savoir si un texte a été écrit par un humain ou généré par une intelligence artificielle. Lors d'une conférence donnée à l'Université du Texas, il a abordé la question de la sécurité et de l'éthique des intelligences artificielles, et a donc parlé de son objectif dans la start-up californienne. "Fondamentalement, chaque fois que GPT génère un texte long, nous voulons qu'il y ait un signal secret imperceptible dans ses choix de mots, que vous pouvez utiliser pour prouver plus tard que, oui, cela vient de GPT", explique-t-il. L'idée serait donc de ne pas utiliser une génération de texte aléatoire mais pseudo-aléatoire. Le signal devra être suffisamment complexe et efficace pour repérer de simples bouts de phrases ajoutés à un texte et, si un utilisateur lambda n'y verrait que du feu, les experts connaissant le fonctionnement de ChatGPT seraient capable de faire la différence entre un texte généré par l'IA et un texte authentique.
Scott Aaronson réfléchit notamment à un moyen de donner un style d'écriture bien spécifique à GPT : "Des écrivains comme Shakespeare, Wodehouse, David Foster Wallace ont un style si distinctif que, même s'ils essayaient de prétendre être quelqu'un d'autre, ils n'y arriveraient probablement pas. Tout le monde les reconnaîtrait. On peut imaginer essayer de créer une IA de la même façon. C'est-à-dire qu'elles seraient construites dès le début pour que les textes contiennent des marques indélébiles, qu'elles soient cryptographiques ou stylistiques, pour trahir leur origine." Néanmoins, il est bien conscient des difficultés d'une telle méthode. Par exemple, il suffirait de demander à une seconde IA de reformuler la réponse générée afin de retirer la signature et, comme le code de ChatGPT est open source, n'importe qui aurait la possibilité de la modifier pour éliminer cette marque...
Open AI ChatGPT : des réponses bluffantes de justesse
Pour mettre au point ChatGPT, les équipes d'OpenAI ont utilisé "l'apprentissage par renforcement à partir de la rétroaction humaine (RLHF)," Elles ont utilisé un vaste corpus de textes – articles de journaux, romans, scripts de films, conversations en lignes... – afin de lui apprendre à comprendre le contexte d'une conversation afin de donner des réponses pertinentes et cohérentes. De ce fait, l'IA maitrise un vaste panel de sujets et de styles de langage – elle peut même composer des poèmes et se souvenir de propos tenus précédemment dans la discussion ! En plus, elle est en constante évolution, ce qui signifie que, grâce à son apprentissage en continu, elle va continuer de s'améliorer et devenir encore plus performante. Plusieurs utilisateurs ont pu la tester et ont été bluffés du résultat : une championne de poker lui a soumis un problème mathématique complexe à résoudre, tandis qu'un dirigeant de start-up lui a fait repérer et corriger des erreurs dans un code. Quand une internaute lui a demandé s'il ne se sentait pas piégé en tant qu'IA, ChatGPT lui a répondu qu'il n'avait pas de conscience ou la capacité de s'auto-gérer, que le concept de liberté ne s'appliquait pas à lui et qu'en tant que modèle de langage, il ne pouvait ressentir des émotions. Au moins, ça a le mérite d'être clair !
Nous avons demandé à ChatGPT d'écrire une lettre de motivation pour le poste de journaliste. En lui indiquant le domaine, les diplômes les expériences, les compétences et autres détails, on obtient un résultat tout à fait satisfaisant. Bien sûr, le résultat reste peu original, mais il peut toujours servir de base à personnaliser. L'IA nous a également suggéré, à notre demande, des idées pour une décoration DIY de Noël sous forme de liste à puces – parfait lorsqu'on manque d'inspiration ! Mais ChatGPT peut également avoir de nombreuses utilisations, comme aider à résoudre un problème de mathématiques – explications à l'appui – à condition qu'ils ne soient pas trop complexes, expliquer une notion complexe ou encore débuguer un code – d'après de nombreux développeurs, ses capacités sont assez impressionnantes. Au point qu'une question finit par se poser : ChatGPT peut-il s'améliorer au point de, un jour, faire le travail à la place de l'humain ?
ChatGPT : une IA capable de créer à la place de l'humain ?
ChatGPT pourrait s'avérer très utile dans de nombreux domaines, comme la programmation, mais aussi pour la production de contenus, que ce soit pour les réseaux sociaux, les sites web, les scripts de films, de séries ou de publicité, et pourquoi pas le journaliste – voilà qui pose la question de l'utilité de l'être humain dans le futur ! Certains y voient même un concurrent potentiel à Google – idée qui n'est pas partagée par l'IA. Sam Altman, le PDG d'OpenAI, a déclaré à The Guardian que le système était "une première démonstration de ce qui est possible". "Bientôt, vous serez en mesure d'avoir des assistants utiles qui vous parlent, répondent aux questions et donnent des conseils. Plus tard, vous pourrez avoir quelque chose qui ira accomplir des tâches pour vous. Finalement, vous pourrez avoir quelque chose qui part à la découverte de nouvelles connaissances pour vous." Dans les jours qui ont suivi sa sortie, des universitaires se sont amusés à générer des réponses à des questions d'examen – de quoi avoir une excellente note – et des programmeurs ont utilisé l'outil pour résoudre des problèmes de codage dans des langages de programmation obscurs en quelques secondes.
Forcément, devant tant de prouesses, on ne peut que se demander si ChatGPT ne pourrait pas un jour "prendre" la place des humains ? Les professions dépendant de la production de contenu pourraient-elles devenir obsolètes ? Nous avons posé la question à l'IA elle-même. Qu'on se rassure, l'IA explique que, "bien que ChatGPT soit capable de générer des textes impressionnants, il ne peut pas encore égaler la créativité et la capacité de réflexion critique des journalistes humains. En outre, la technologie ne peut pas encore faire preuve d'un jugement éthique et moral, ce qui est crucial dans le journalisme." Ouf ! Autre point déterminant, ses connaissances se limitent pour l'instant à 2021– impossible d'écrire un article à jour sur le rachat de Twitter par Elon Musk par exemple. Et, bien évidemment, elle peut aussi se tromper et donner des réponses fausses – ce que ChatGPT admet volontiers. À l'heure où les fake news grouillent sur Internet, il est plus que nécessaire de vérifier et de recroiser ses sources. Un problème que l'entreprise a du mal à résoudre, car il n'y a pas de source de vérité dans les données utilisées pour former le modèle et la formation supervisée peut également être mal-calibré "car la réponse idéale dépend de ce que le modèle sait, plutôt que de ce que le démonstrateur humain sait". Toujours est-il que, d'ici plusieurs années, des IA comme ChatGPT pourrait permettre à certaines professions de se délester de tâches répétitives et peu intéressantes – ou voler des milliers d'emploi, tout dépend du point de vue. En attendant, il est possible de tester ChatGPT en s'inscrivant. Mais il faut être patient car le service est submergé depuis son lancement, ce qui le fait régulièrement crasher…