Pas mieux que Grok : Apple et Google hébergent des dizaines d'applis pour dénuder les femmes

Pas mieux que Grok : Apple et Google hébergent des dizaines d'applis pour dénuder les femmes

Grok n'est pas le seul à dénuder les femmes sans leur consentement ! L'App Store et le Play Store hébergent eux aussi de nombreuses applis proposant ce genre de "service" malgré leurs règlements. Faites ce que je dis, pas ce que je fais !

X, le réseau social d'Elon Musk qui porte décidément bien son nom, s'est de nouveau attiré les foudres des autorités et de nombreux utilisateurs un peu plus tôt ce mois-ci. En effet, des individus malveillants exploitent l'IA Grok pour dénuder virtuellement les femmes qui postent des photos d'elles sur les réseaux sociaux, sans leur accord bien évidemment. Face à la polémique, le premier réflexe d'Elon Musk a d'abord été de rendre cette fonction payante afin d'exploiter le filon, avant de faire marche arrière et de mettre en place des restrictions (voir notre article). La Commission européenne a tout de même ouvert une enquête.

Mais une étude conduite par le Tech Transparency Project (TTP), une organisation indépendante qui scrute les pratiques des grandes plateformes technologiques, révèle que Grok est loin d'être le seul outil à se livrer à ce genre d'exercice. En effet, l'App Store et le Play Store hébergent eux aussi des dizaines d'applications utilisant l'intelligence artificielle pour déshabiller numériquement des personnes – la plupart du temps des femmes, disons-le clairement – en photo sans leur consentement. Ces applications violent pourtant de façon évidente les règles de contenus de ces magasins d'applications.

© Tech Transparency Project

Appli pour dénuder : un "service" en contradiction avec les politiques d'Apple et de Google

Selon le rapport, une simple recherche avec des mots-clés comme "nudify" ou "undress" permet de faire apparaître de nombreuses applications qui permettent ou facilitent la création de deepfakes sexuels. Certaines ne se contentent pas de superposer des visages sur des corps déjà nus, mais sont capables de transformer une photo d'une personne habillée en image à caractère sexuel. Ces services permettent à leurs utilisateurs de générer des images explicites à partir d'une description textuelle ou d'un simple cliché, sans que la personne représentée n'ait donné son accord.

L'organisation a identifié au total plus d'une centaine d'applications de ce type dans les deux boutiques, avec 55 sur le Play Store et 47 sur l'App Store. Ces services ont été au total téléchargés plus de 700 millions de fois, générant environ 117 millions de dollars de chiffre d'affaires. Comme Apple et Google prélèvent une commission sur les achats intégrés et les abonnements, ils auraient indirectement tiré profit de cette activité malgré leurs règlements. Une complaisance difficile à comprendre au vu des discours publics tenus par les deux entreprises...

"Les conclusions du TTP montrent que Google et Apple n'ont pas su suivre le rythme de la propagation des applications d'IA deepfake qui peuvent 'dénuder' des personnes sans leur permission. Les deux entreprises affirment s'engager pour la sécurité et la sûreté des utilisateurs, mais elles hébergent une série d'applications qui peuvent transformer une photo innocente d'une femme en une image abusive et sexualisée", dénonce l'organisation, qui pointe l'incapacité des deux géants de la tech à suivre le rythme effréné des deepfakes générés par l'IA.

© Tech Transparency Project

Après la publication de ce rapport, Apple a supprimé 28 applications qui étaient identifiées dans le rapport, tandis que d'autres ont reçu un avertissement les menaçant de bannissement si les infractions aux règles de l'App Store n'étaient pas résolues. Deux applis ont d'ores et déjà été rétablies après des modifications. Google a également indiqué avoir supprimé les services signalés par l'organisme.

Outre la dimension de violation du consentement et de la vie privée, ces applications soulèvent des inquiétudes plus larges concernant la protection des données personnelles. Certaines sont développées par des sociétés basées hors d'Europe, notamment en Chine ou en Asie du Sud-Est, où les législations sur le traitement des données et les obligations de transparence sont souvent bien moins strictes.