En cas de mal-être, ChatGPT permet désormais d'alerter un contact de confiance
ChatGPT introduit la fonction "Contact de confiance" pour alerter un proche lorsqu'un utilisateur présente des signaux de détresse mentale. Un outil qui pourrait sauver des vies, mais qui reste totalement optionnel…
Dépendance, délires, suicide... ChatGPT est bien souvent utilisé comme un confident et même comme psychologue, OpenAI a avoué il y a quelques mois faire face à plus d'un million de personnes partageant leurs pensées suicidaires chaque semaine, tandis que des centaines de milliers d'utilisateurs montrant des signes de psychose, de manie ou développant un attachement émotionnel excessif envers ChatGPT. Il n'est donc guère étonnant que l'entreprise soit l'objet de plusieurs plaintes, notamment pour des cas de suicides, de psychoses ou d'automutilation.
Aussi, pour essayer d'endiguer le phénomène et de calmer la gronde montante, la firme de Sam Altman a annoncé dans un communiqué la mise en place du dispositif "Contact de confiance" (Trusted Contact) pour aider ses utilisateurs.
Le principe est simple : l'internaute renseigne à l'IA une personne de confiance (proche, famille ou aidant) à contacter en cas de pensées suicidaires, de pulsions d'automutilation ou de tout autre mal-être profond, afin que cette dernière l'incite à contacter lui-même la personne en question lorsqu'elle jugera qu'il est dans un état de profonde détresse. Elle pourra notamment lui proposer des amorces de conversation pour faciliter la prise de contact.
Contact de confiance ChatGPT : un dispositif bienvenu mais optionnel
Le dispositif "Contact de confiance" fonctionne en plusieurs étapes. Premièrement, l'utilisateur doit, ajouter, via les paramètres de ChatGPT, un ami ou un membre de la famille obligatoirement âgé de 18 ans ou plus, comme personne de confiance. Le contact en question reçoit alors une invitation expliquant son rôle et doit l'accepter sous une semaine, sans quoi l'utilisateur peut en choisir un autre.
En cas de signaux de détresse détectés par les systèmes automatisés, ChatGPT encourage l'utilisateur à contacter sa personne de confiance, notamment en proposant des amorces de conversation pour faciliter la prise de contact. Une équipe spécialisée évalue ensuite la situation. Si le risque est jugé élevé, une notification est envoyée au contact par e-mail, SMS ou via l'application. Celle-ci ne donne aucun détail sur les conversations, mais inclut des conseils pour engager le dialogue. Le dispositif peut bien évidemment être modifié ou désactivé à tout moment par l'utilisateur ou le contact.
La fonction a été développée avec le soutien de l'American Psychological Association et du Conseil d'experts d'OpenAI sur le bien-être et l'IA. Elle s'ajoute aux outils déjà existants, comme les mécanismes d'alerte pour adolescents, le contrôle parental et les lignes d'assistance intégrées. L'entreprise précise toutefois qu'elle ne remplace ni un accompagnement médical ni les services d'urgence. Il s'agit juste d'encourager un contact humain en situation de crise. Il y a toutefois un petit hic : cette fonction est totalement optionnelle. Il faut donc que l'utilisateur pense à l'activer sur son profil pour pouvoir bénéficier du dispositif de soutien.

