ChatGPT interdit aux moins de 18 ans : OpenAI bloque les mineurs
À compter d'aujourd'hui, les mineurs n'auront plus accès à ChatGPT sans l'accord d'un adulte, OpenAI ayant revu les conditions d'utilisation de son IA suite à son interdiction en Italie. Reste à savoir comment appliquer l'interdiction...
ChatGPT n'e finit plus de défrayer la chronique. Depuis que ce chatbot – robot conversationnel – a été mis à disposition du grand public et que tous les grands acteurs de la tech se sont lancés dans une folle course à l'intelligence artificielle, il ne se passe plus un jour sans que l'on entendue parler d'un nouveau système à base d'IA.
Mais tout va très vite. Trop vite. Beaucoup trop vite. Car l'IA pose de nombreux problèmes éthiques et les dérives de son utilisation sont déjà pointées du doigt. Au point que des chercheurs et des personnalités du numérique ont récemment alerté sur les dangers de cette technologie, en demandant, dans une lettre ouverte, un moratoire sur les expérimentations à grande échelle, le temps de réfléchir à l'avenir. Certains gouvernements ont opté pour une approche plus drastique, à l'image de l'Italie qui a décidé, la semaine dernière, d'interdire avec "effet immédiat" l'accès à ChatGPT, au motif d'un manque de respect de la vie privée des utilisateurs, d'infractions au Règlement général sur la protection des données (RGPD) et de l'absence de protection des mineurs (voir notre article).
D'autres pays lui ont immédiatement emboîté le pas, forçant OpenAI, la start-up à l'origine du chatbot, à prendre des mesures pour rectifier le tir. Dans un billet de blog publié ce mercredi 5 avril, l'entreprise présente son "approche de la sécurité de l'IA" et explique comment elle compte renforcer la sécurité de ses utilisateurs. Et pour commencer, seuls les utilisateurs de plus de 18 ans ou de plus de 13 ans avec un accord parental peuvent désormais échanger avec ChatGPT.
ChatGPT interdit aux mineurs : une réponse au bannissement en Italie
Cette limitation d'âge répond à un des principaux reproches formulés par les autorités italiennes, qui avait souligné que le ChatGPT ne vérifiait pas l'âge des utilisateurs, ce qui "expose les mineurs à des réponses absolument inadaptées à leur degré de développement et de conscience", d'autant plus que l'entreprise indiquait dans ses mentions légales ne s'adresser qu'aux utilisateurs d'au minimum 13 ans. " La protection des enfants est l'une de nos priorités en matière de sécurité. Nous exigeons que les personnes soient âgées de 18 ans ou plus — ou de 13 ans ou plus avec l'accord de leurs parents — pour utiliser nos outils d'intelligence artificielle, et nous étudions des options de vérification ", décide OpenAI. Il compte bientôt instaurer un outil pour vérifier l'âge des utilisateurs. Nous n'avons pour l'instant aucune idée quant à la forme qu'il prendra — en espérant que ce soit plus qu'une simple case à cocher, sans pour autant être trop intrusif dans notre vie privée.
L'entreprise tient à rappeler qu'elle prend le temps de procéder à des tests rigoureux et à poser des garde-fous avant de rendre sa technologie publique. "Par exemple, une fois que notre dernier modèle, GPT-4, a terminé sa formation, nous avons passé plus de six mois à travailler dans toute l'organisation pour le rendre plus sûr et mieux aligné avant de le rendre public", plaide-t-elle. "Nous diffusons prudemment et progressivement de nouveaux systèmes d'IA - en mettant en place d'importantes mesures de protection - auprès d'un groupe de personnes de plus en plus large, et nous apportons des améliorations constantes en fonction des enseignements que nous tirons." Reste que ChatGPT-4 continue toujours d'halluciner... OpenAI assure déployer "des efforts considérables pour minimiser le risque que nos modèles génèrent des contenus préjudiciables aux enfants" affirmant avoir réussi à ce que GPT-4 soit 82 % moins susceptible de répondre à des demandes de contenu interdit que GPT-3.5. Par ailleurs, le chatbot bloque tout contenu pédopornographique et signale l'utilisateur au Centre national pour les enfants disparus et exploités.
ChatGPT : des condamnations qui lui pendent au nez
La décision d'OpenAI d'interdire ChatGPT aux moins de 18 ans n'est guère étonnante puisque l'entreprise, suite à sa condamnation, disposait de 20 jours pour répondre aux préoccupations des autorités italiennes, sous peine d'une amende pouvant aller jusqu'à 20 millions d'euros ou 4 % de son chiffre d'affaires annuel. Sans compter que cette condamnation a ouvert la voie à d'autres pays, en particulier en Europe, où le RGPD est également en vigueur dans 27 États. En France, deux plaintes ont été déposées auprès de la CNIL, le gendarme français des données personnelles, comme l'a révélé le site L'Informé. La première plainte a été déposée par l'avocate Zoé Vilain, présidente de l'association de sensibilisation aux enjeux du numérique Janus International, qui reproche au chatbot de ne pas lui avoir présenté de conditions générales d'utilisation dans les étapes d'inscription pour devenir un utilisateur de ChatGPT et ne pas posséder une "quelconque politique de confidentialité".
La seconde plainte provient d'un développeur nommé David Libeau, qui a repéré des données personnelles le concernant en interrogeant ChatGPT. "Lorsque je demandais plus d'informations, l'algorithme a commencé à affabuler et à m'attribuer la création de sites web ou l'organisation de manifestations en ligne, ce qui est totalement faux", explique-t-il. Un constat qui n'est guère étonnant, ce type de chatbot étant connu pour "halluciner", c'est-à-dire inventer avec assurance des faits. Selon David Libeau, cela contrevient à l'article 5 du RGPD, selon lequel les informations sur des personnes doivent absolument être exactes. Pourtant, OpenAI affirme dans son billet que "nous nous efforçons donc de supprimer les informations personnelles de l'ensemble des données de formation lorsque cela est possible, d'affiner les modèles afin de rejeter les demandes d'informations personnelles des personnes privées et de répondre aux demandes des personnes souhaitant supprimer leurs informations personnelles de nos systèmes. Ces mesures minimisent la possibilité que nos modèles génèrent des réponses contenant des informations personnelles sur des personnes privées." De son côté, le Canada a lui aussi ouvert une enquête le 4 avril sur l'entreprise pour l'utilisation et le partage de données privées sans consentement préalable. Malgré l'interdiction d'accéder à ChatGPT pour les utilisateurs de moins de 18 ans, les problèmes causés par le chatbot sont loin d'être tous résolus...