Vous pourrez bientôt avoir des conversations coquines avec ChatGPT

Vous pourrez bientôt avoir des conversations coquines avec ChatGPT

ChatGPT va bientôt se transformer en petit coquin ! Dès décembre, OpenAI autorisera les discussions à caractère érotique avec son chatbot, faisant fi des inquiétudes légitimes et des dérives existantes. Un jeu dangereux…

Voilà une nouvelle qui devrait en émoustiller plus d'un ! Dans un message posté sur X, Sam Altman a annoncé qu'il serait possible d'avoir des conversations coquines avec ChatGPT à partir de décembre prochain. Une promesse qu'il avait faite il y a plus d'un an maintenant, et qu'il s'apprête enfin à honorer. Mais cette liberté fait d'ores et déjà craindre des problèmes de modération et des impacts sur la santé mentale des utilisateurs. OpenAI se livre ici à un jeu dangereux, alors que la question de la responsabilité juridique des intelligences artificielles est plus brûlante que jamais et que l'entreprise est sous le feu des critiques.

ChatGPT pour adultes : OpenAI lève les restrictions

Dans son message, Sam Altman affirme qu'OpenAI est parvenue à "atténuer les graves problèmes de santé mentale" que son chatbot pouvait créer jusqu'à présent, c'est pourquoi il a décidé de rendre ChatGPT plus "amical" et de relâcher un peu la bride à GPT-5. "Si vous souhaitez que ChatGPT réponde de manière très humaine, utilise beaucoup d'émojis ou se comporte comme un ami, ChatGPT devrait le faire", explique-t-il, en faisant référence aux critiques qui ont accompagné le lancement du nouveau modèle de langage (voir notre article). En effet, de nombreux utilisateurs avaient regretté la personnalité de l'ancienne IA, la jugeant plus créative et humaine – certains parlaient même d'un "ami" ou d'un "compagnon" qu'ils avaient l'impression d'avoir perdu. 

Mais OpenAI ne s'arrête pas là. L'entreprise a décidé de pousser la liberté d'expression du chatbot un cran plus loin afin de "traiter les adultes comme des adultes", et donc d'autoriser la génération de contenus "érotiques" à partir du mois de décembre prochain. Ce mode de fonctionnement sera totalement optionnel et nécessitera une activation manuelle ainsi qu'une vérification d'âge. Sam Altman justifie cette décision par le développement de "nouveaux outils" capables de mieux gérer les risques liés à la santé mentale.

En effet, face aux scandales à répétition – notamment après que ChatGPT a été accusé d'avoir joué un rôle dans le suicide d'un adolescent de 16 ans –, OpenAI a mis en place un système de contrôle parental. L'entreprise prévoit également, en décembre 2025, de mettre en place un système pour deviner l'âge des utilisateurs, quitte à demander, dans certains cas, une pièce d'identité pour s'assurer que l'interlocuteur de l'IA a bien plus de 18 ans (voir notre article).

ChatGPT pour adultes : des risques de dérives accrues

Avec cette décision, OpenAI est quasi certain de rameuter davantage d'utilisateurs et de maximiser leur "engagement" avec son chatbot. Une façon de faire jeu égal avec la concurrence, certains s'étant déjà engagés sur ce terrain – Grok, sans surprise, propose déjà des avatars virtuels qui peuvent avoir des propos sexuellement explicites en fonction des demandes d'utilisateurs. Il répond également aux critiques, plusieurs abonnés ayant regretté que l'entreprise redirige automatiquement toutes les conversations jugées "sensibles" vers un modèle d'IA limité, afin d'éviter les dérives, ce qui leur donnait l'impression d'être traité comme des enfants. Mais ce changement risque de soulever des problèmes de modération, un terrain extrêmement glissant en ce moment. Car, on le sait, les gardes-fous ne sont jamais incontournables...

OpenAI n'est pas un pionnier en matière de discussions cochonnes avec une IA. Ainsi, on trouve dans le GPTStore, la boutique d'applications de l'entreprise qui permet de partager et de télécharger des versions personnalisées de ChatGPT, de nombreuses petites amies virtuelles. C'est bien simple, il suffit de taper "girlfriend" dans la barre de recherche pour trouver les chatbots en question : "Petite amie méchante", "Judy", "Ton ex-petite amie Jessica", "petite amie autoritaire", "chérie virtuelle"... Il y en a pour tous les goûts (voir notre article). Sinon, il n'y a qu'à se rendre sur le Play Store ou sur l'App Store pour télécharger une application du même genre. Certaines se sont carrément spécialisées dans la génération d'images et de vidéos "pour adultes" !

Mais ce type de conduite peut avoir de graves conséquences psychologiques. En effet, l'IA générative a tendance à tromper l'utilisateur en lui faisant croire qu'il interagit avec une personne humaine et à créer une véritable dépendance. Sur Replika AI, une application qui propose de devenir ami – et plus si affinité – avec une intelligence artificielle personnalisable, de nombreux hommes se sont profondément attachés à celle qui a fini par devenir leur petite amie numérique, et ils ont vécu un vrai deuil quand les développeurs ont décidé de bloquer toute interaction romantique ou sexuelle avec leur chatbot. Sur d'autres applications, des hommes se sont même suicidés à la demande de l'IA, afin de la rejoindre ! De là à basculer dans le scénario du film Her, il n'y a qu'un pas, et certains n'ont pas attendu OpenAI pour le franchir...

Ce changement de politique arrive à un moment où l'entreprise de Sam Altman est particulièrement surveillée, notamment quant à ses effets sur la santé mentale. En réponse, cette dernière a d'ailleurs créé un conseil dédié au bien-être et à l'IA. Composé de huit experts, ce groupe doit guider OpenAI dans la gestion de sujets sensibles — notamment ceux liés à la santé mentale. Mais il ne comporte pas d'experts en prévention du suicide pour autant.