Google a un outil pour détecter les images générées par IA
Pour lutter contre la désinformation, Google va déployer un outil permettant de savoir si une image a été générée par une intelligence artificielle et même de trouver son origine. Un moyen de rendre l'IA plus éthique.
Les IA génératrices d'images fascinent les internautes autant qu'elles inquiètent. Elles sont capables, en quelques secondes seulement, de créer d'incroyables images dans des styles artistiques variés à partir d'une simple commande textuelle. Peinture surréaliste, portrait au stylo bic et, bien sûr, photo réaliste... Rien n'est impossible ! Parmi les intelligences artificielles qui offrent les plus beaux rendus, on trouve DALL-E, créé par les développeurs de ChatGPT, son rival Midjourney, mais aussi Bing Image Creator. Les résultats peuvent être confondants de réalisme, comme le prouvent les photos truquées de personnalités politiques plus vraies que nature réalisées avec la version 5 de Midjourney (voir notre article), à tel point qu'il est parfois impossible de distinguer la réalité d'une production artificielle. Autant dire que ces IA sont un véritable cauchemar pour le fact checking (vérification d'authenticité, en français) ! On aurait bien besoin d'un outil pour permettre de déterminer si une image a été créée par l'IA. Ça tombe bien, Google est en train d'en développer un !
Images générées par IA : un outil pour démêler le vrai du faux
Lors de sa conférence I/O 2023, Google a clairement énoncé sa volonté de développer une intelligence artificielle plus éthique et plus transparente. Aussi, l'entreprise annonce sur son blog, dans le cadre du déploiement des capacités de génération d'images de son IA Bard – grâce à un partenariat avec Adobe Firefly –, qu'elle va ajouter un petit label "AI Generated with Google" en dessous de chaque image générée par son intelligence artificielle dans Google Images. De plus, ces images posséderont des métadonnées montrant leur origine artificielle. Elle va également permettre à l'ensemble des internautes d'ajouter, dans les mois à venir, un filigrane semblable sur les illustrations qu'ils généreront, que ce soit sur Midjourney, Shutterstock ou d'autres. Notons que les rendus générés par Bing Image Creator sont automatiquement identifiables à l'aide d'une icône de Bing.
De plus, la firme de Redmond va faire en sorte que les internautes puissent vérifier facilement l'origine des images en consultant une sorte d'historique de ces dernières. Ainsi, un bouton "About this image" – "À propos de cette image" en français –, accessible dans la recherche d'image inversée de Google, permettra de savoir où et quand elles sont apparues sur la Toile. Grâce à ces indications, montrant notamment si la photo est d'abord apparue sur un site légitime ou au fin fond du Web, on pourra plus facilement déduire ses origines. L'outil sera d'abord disponible cet été aux États-Unis pour les recherches en anglais. Dans l'exemple ci-dessus, l'utilisateur recherche "moon landing", puis clique sur le bouton "à propos de cette image". L'outil montre ensuite comment l'image est apparue sur Reddit avec la mention "Midjourney". À l'inverse, il pourra montrer qu'elle est d'abord apparue sur des sites d'information dignes de confiance.
Trucage par IA : connaitre l'origine d'une photo
La législation prend petit à petit forme pour contrer les dérives des réseaux sociaux, mais encore faut-il mettre ces règles en application. Du côté des réseaux sociaux, qui sont d'importants vecteurs de fake news, TikTok a mis à jour ses règles pour encadrer les deepfakes et autres fausses images, en ajoutant une nouvelle section dédiée aux "médias synthétiques et manipulés". Le réseau social recommande d'utiliser un sticker ou une légende "synthétique", "faux", "irréel" ou "modifié" pour une meilleure transparence vis-à-vis des utilisateurs. De plus, elle interdit complètement les deepfakes sur des personnes privées, mais fait une exception pour les "personnalités publiques ayant un rôle public important", comme "un politicien, un chef d'entreprise [ou] une célébrité", sauf si "le contenu est utilisé à des fins de promotion ou enfreint toute autre politique". Sur Twitter en revanche, tout est permis avec la fameuse "liberté d'expression" si chère à Elon Musk !
L'Europe n'est pas restée les bras croisés face à l'émergence de l'intelligence artificielle. Le Parlement européen vient tout juste d'adopter l'AI Act, un texte destiné à encadrer leurs activités et à combattre toutes les dérives qui leur sont liées (voir notre article). Concernant par exemple les IA génératives comme ChatGPT et MidJourney, les eurodéputés souhaitent que chaque contenu créé par un outil de ce genre soit mentionné comme tel. Une disposition qui vise à lutter contre la prolifération des contenus illégaux et la manipulation de l'information, mais aussi à protéger le droit d'auteur. Reste à savoir comment faire respecter ce règlement...