La fonction pour déshabiller les femmes sur X avec Grok devient… payante !
Sur X, de nombreux utilisateurs s'amusent à demander à l'IA Grok de déshabiller des femmes en photo, parfois mineures, pour les voir en sous-vêtements ou même nues. Pour enrayer le scandale, Elon Musk a simplement décidé de rendre cette fonction payante
Depuis quelques temps, le réseau social X et son IA Grok sont au cœur d'un énième scandale : des individus malveillants exploitent l'IA pour dénuder virtuellement les femmes qui postent des photos d'elles sur les réseaux sociaux, sans leur accord bien évidemment. Ce phénomène de dénudement n'est pas nouveau et avait déjà été pointé du doigt en mai dernier (voir notre article), mais il vient de connaître un regain de popularité plus que problématique. Pire, ces déshabillages concernent également des mineurs, ce qui a poussé la France à ouvrir une enquête, de même que d'autres pays.
Face à cette polémique, Elon Musk a décidé de rendre la fonction payante. Sollicité par des utilisateurs sur X, Grok a indiqué ce vendredi que "la génération et l'édition d'images sont actuellement réservées aux abonnés payants. Vous pouvez vous abonner pour débloquer ces fonctionnalités". Ou comment monétiser la détresse des femmes...
Contenus pédopornographiques sur X : Grok part en roue libre
Pour déshabiller les femmes sans consentement, les petits rigolos utilisent Grok, le chatbot dopé à l'IA créé par Elon Musk et accessible sur le réseau social X. Il suffit de lui soumettre la photo de la personne en question et de lui demander de la mettre en sous-vêtements ou en bikini – et on ne parle pas de brassières en coton. Et il ne s'agit pas d'un phénomène de niche. Il suffit de faire une rapide recherche sur le réseau social pour constater l'abondance de la pratique.
Les chercheurs de l'ONG européenne AI Forensics ont tenté de quantifier le phénomène, en analysant 20 000 images générées par Grok entre le 25 décembre et le 1er janvier, comme le rapporte Le Monde. Il en ressort que plus de la moitié d'entre elles (53 %) représentaient des personnes légèrement vêtues, dont 81 % de femmes. Certaines images – une minorité fort heureusement – représentaient même des enfants de moins de 5 ans.
Après plusieurs jours de signalements d'utilisateurs, le compte officiel de Grok sur X avait finalement admis des dysfonctionnements dans ses systèmes de sécurité. "Nous avons identifié des failles dans nos garde-fous et nous les corrigeons de toute urgence – la pédopornographie est illégale et interdite", a-t-il indiqué à un internaute.
Contenus pédopornographiques sur X : une solution qui n'en est pas une
Bien entendu, les réactions outrées n'ont pas tardé à pleuvoir à l'international, jusqu'au sein du gouvernement français. Le parquet de Paris, via sa section de lutte contre la cybercriminalité (J3), a annoncé il y a quelques jours l'élargissement d'une enquête ouverte depuis l'été sur le réseau social X, y ajoutant la génération et la diffusion d'images pédopornographiques. "Le délit de montage à caractère sexuel d'une personne sans son consentement est puni de deux ans d'emprisonnement et de 60 000 euros d'amende", a-t-il rappelé. Le Gouvernement a également effectué un signalement auprès de la plateforme Pharos, et l'Arcom a été saisie.
De son côté, la Commission européenne avait annoncé jeudi avoir imposé à X une mesure conservatoire. Elle a pris une "ordonnance de conservation", une mesure juridique qui impose à X de conserver tous ses documents internes relatifs à Grok, et ce jusqu'à la fin 2026.
La "solution" d'Elon Musk est loin d'avoir calmé le jeu. Elle a été qualifiée d'"insultante pour les victimes" par un porte-parole du Premier ministre britannique. Cette mesure "transforme simplement une fonction qui permet la création d'images illégales en un service premium", et constitue "une insulte aux victimes de misogynie et de violences sexuelles", estime-t-il. Le gouvernement britannique a appelé Elon Musk à trouver une vraie solution de toute urgence.
