Pour protéger les ados, ChatGPT pourra exiger une carte d'identité
Pour limiter les dérives des plus jeunes, ChatGPT va se doter d'un mode spécial destinés aux adolescents, avec des restrictions. Le chabot procédera d'ailleurs à un contrôle d'âge, en exigeant éventuellement une pièce d'identité.
Depuis son lancement en novembre 2022, ChatGPT a suscité de nombreuses levées de boucliers. Récemment, deux parents américains ont pointé du doigt l'agent conversationnel d'OpenAI, expliquant que celui-ci aurait joué un rôle dans le suicide de leur enfant de 16 ans. Selon les proches de la victime, le chatbot aurait contribué à l'isolement social de l'adolescent avant de l'encourager à mettre fin à ses jours en lui fournissant des instructions détaillées pour y parvenir. Et il ne s'agit pas là d'un cas isolé.
En réponse à ces tragiques événements, OpenAI a vite promis de mettre en place un contrôle parental, avec notamment des garde-fous renforcés (voir notre article). Mais l'entreprise de Sam Altman compte aller plus loin encore. "Les adolescents grandissent avec l'IA, et c'est à nous de veiller à ce que ChatGPT s'adapte à leur niveau. La manière dont ChatGPT répond à un adolescent de 15 ans devrait être différente de celle dont il répond à un adulte", indique-t-elle dans un billet de blog. C'est pourquoi elle va mettre en place un système pour deviner l'âge des utilisateurs afin de distinguer les mineurs des majeurs. Dans certains cas, l'IA pourra même demander une pièce d'identité pour s'assurer que son interlocuteur a bien plus de 18 ans.
ChatGPT pour ados : une IA qui devine l'âge des utilisateurs
Le futur système d'OpenAI va prédire l'âge de l'utilisateur en se basant sur ses conversations ainsi que les informations transmises à l'entreprise. Les comptes ayant été identifiés comme appartenant à des mineurs – c'est-à-dire ayant moins de 18 ans – seront soumis à des règles beaucoup plus strictes. Par exemple, ChatGPT refusera toute conversation à caractère sexuel explicite ou sur le thème du suicide et de l'automutilation, même dans un contexte d'écriture créative.
Some of our principles are in conflict, so here is what we are going to do:https://t.co/UQA6ddG356
— Sam Altman (@sama) September 16, 2025
De plus, si jamais le système détecte des idées suicidaires ou que l'adolescent traverse un moment de détresse intense, il tentera de contacter ses parents. Si cela n'est pas possible, il se tournera alors vers les autorités locales. L'entreprise assure toutefois que ce dispositif sera affiné avec l'aide d'experts. Si jamais l'IA avait le moindre doute concernant l'âge de son interlocuteur, elle appliquera par défaut les restrictions prévues pour les plus jeunes.
Bien sûr, OpenAI est conscient que ces garde-fous ne seront pas infaillibles, car la technologie de détection d'âge est complexe et sujette à des erreurs. D'ailleurs, dans le cas où un adulte serait pris pour un mineur et souhaiterait accéder à des fonctions qui lui seraient alors interdites, ChatGPT se réserve le droit de demander une pièce d'identité pour attester de sa majorité. Une mesure assez invasive qui est loin de faire l'unanimité...
ChatGPT pour ados : concilier protection, liberté et confidentialité
OpenAI doit essayer d'obtenir le difficile équilibre entre la liberté des adultes, la sécurité des mineurs et le respect de la vie privée. Sam Altman avoue lui-même que certains des principes de la société entrent en conflit. L'entreprise reconnaît que ce nouveau système est un "compromis sur la vie privée pour les adultes", mais estime que c'est un "compromis qui en vaut la peine" pour protéger les plus jeunes. Mais on peut légitimement s'inquiéter de mettre entre les mains d'OpenAI des données aussi sensibles, à cause des risques de piratage ou de fuite, comme c'est déjà arrivé par le passé.
En attendant que ce système soit opérationnel, l'entreprise mise sur le contrôle parental, qui devrait être disponible à la fin du mois. Grâce à lui, les parents pourront lier leur compte avec ceux de leurs enfants. Ils auront également accès à des outils pour ajuster le comportement de l'IA selon des règles spécifiques aux ados, désactiver certaines fonctions comme l'historique de conversation, ou encore définir des heures durant lesquelles les enfants ne pourront pas utiliser le chatbot.