L'Europe va interdire les IA qui génèrent des deepfakes sexuels
Suite à la polémique autour des deepfakes sexuels créés avec Grok, l'Union européenne a voté un texte visant à interdire les IA qui génèrent ce type de visuels sans consentement. Pas sûr que cela suffise à éradiquer cette pratique…
Ces dernières semaines, les inquiétudes sur les impressionnants progrès en termes d'intelligence artificielle ont été fortement ravivées, notamment avec le dévoilement de l'IA Mythos, la nouvelle IA de l'entreprise américaine Anthropic et aux fortes capacités de cybersécurité.
Sans compter que le détournement des intelligences artificielles pour produire des deepfakes sexuels pose un sérieux problème de société. Cette pratique a attiré l'attention des autorités en début d'année, alors que des individus malveillants exploitent l'IA Grok sur X pour dénuder virtuellement les femmes qui postent des photos d'elles sur les réseaux sociaux, sans leur accord bien évidemment.
Face à l'indignation provoquée par cette pratique, le premier réflexe d'Elon Musk, le patron de X, entre autres, avait d'abord été de rendre cette fonction payante afin d'exploiter le filon, avant de faire marche arrière et de mettre en place des restrictions (voir notre article). Mais la polémique avait rapidement pris une dimension internationale, amenant la Commission européenne à ouvrir une enquête.
Mais X est loin d'être le seul concerné par le problème ! Une étude a révélé que l'App Store et le Play Store hébergent eux aussi de nombreuses applis proposant ce genre de "service" malgré leurs règlements. Aussi, face à la multiplication de ces pratiques, les institutions européennes cherchent à durcir rapidement la réglementation, avec l'objectif d'interdire purement et simplement certains usages. Justement, les Etats membres et le Parlement européen se sont entendus dans la nuit de mercredi à jeudi pour les interdire sur le Vieux Continent, comme le rapporte BFMTV. En parallèle, ils ont décidé de repousser plusieurs autres réglementations sur l'IA à 2027.
Deepfakes sexuels : vers un renforcement de la législation européenne
Théoriquement, il est déjà illégal en Europe de produire et de diffuser des images sexuelles à l'insu d'une personne. Une directive de 2024 sur les violences faites aux femmes pénalise en effet le recours à l'IA pour générer des visuels de ce type, tandis que le Digital Services Act (DSA) oblige les plateformes à retirer les contenus illicites, dont les abus sexuels sur mineurs.
Mais la législation va se durcir un peu plus. La commission des libertés civiles (LIBE) du Parlement européen avait déjà approuvé, en commission en mars dernier, un texte incluant un amendement qui propose de bannir explicitement les outils dits de "nudification", c'est-à-dire les systèmes d'IA générant des images réalistes "visant à représenter des activités sexuellement explicites ou les parties intimes d'une personne physique identifiable" sans son consentement.
Cet amendement avait été ajouté dans le cadre de l'AI Omnibus, un nouveau règlement en cours d'adoption qui doit permettre de simplifier et d'ajuster l'AI Act. Avec lui, les règles devront aussi s'appliquer aux usages et aux utilisateurs. De ce fait, les plateformes et les développeurs d'IA seraient directement ciblés, et ils auraient l'obligation de rendre impossible, ou du moins particulièrement difficile, la génération de contenus de ce type.
Deepfake sexuel : des mesures de l'Omnibus Act repoussées
La nouvelle interdiction européenne votée dans la nuit du 6 au 7 mai 2026 porte sur les systèmes permettant de créer des images, vidéos, et sons à caractère pédopornographique, ou représentant les parties intimes d'une personne identifiable, ou la mettant en scène dans des activités sexuelles, le tout sans son consentement. Si ce dispositif devait initialement arriver en août prochain, s'appliquera à partir du 2 décembre 2026. À cette date, les IA devront donc être dotées de mesures de sécurité les empêchant de générer de tels contenus.
Les défenseurs de cette mesure insistent sur les conséquences très concrètes pour les victimes, évoquant des situations de harcèlement, d'humiliation publique et de violence numérique, qui touchent particulièrement les femmes et les enfants.
Les 27 et les eurodéputés ont également accepté, comme le proposait la Commission européenne, de reporter l'entrée en vigueur de nouvelles règles visant à encadrer l'activité des systèmes IA dits à hauts risques, c'est-à-dire ceux actifs dans les domaines sensibles de la sécurité, la santé ou encore les droits fondamentaux. Celle-ci se fera le 2 décembre 2027 pour les systèmes à hauts risques "autonomes", et le 2 août 2028 pour ceux intégrés à d'autres programmes ou produits.
Deepfakes sexuels : entre innovations technologiques et protection des citoyens
Au-delà de la dimension juridique, ces débats traduisent une inquiétude plus large face à la facilité d'accès à ces technologies. Contrairement aux premiers deepfakes, qui nécessitaient des compétences techniques, les nouveaux outils sont simples d'utilisation et accessibles au grand public, ce qui augmente fortement les abus. La législation doit alors trouver un délicat équilibre entre innovation technologique et protection des droits fondamentaux, afin de ne pas freiner le développement de l'intelligence artificielle tout en encadrant ses usages les plus problématiques.
En tout cas, Elon Musk et Grok ne sont pas sortis d'affaires, loin de là ! L'Union européenne et le Royaume-Uni enquêtent depuis mars dernier sur la génération de deepfakes sexuels par l'IA du milliardaire, exposant ce dernier à de lourdes amendes.
