Arnaque Amazon : de faux guides de voyage rédigés par des IA

Arnaque Amazon : de faux guides de voyage rédigés par des IA

Pendant les vacances estivales, attention aux faux guides de voyage qui pullulent sur Amazon ! Des escrocs utilisent l'IA pour les rédiger et monter une arnaque des plus sophistiquées. Auteurs, avis 5 étoiles… Tout est faux !

Avec la popularisation des intelligences artificielles génératives comme ChatGPT, il n'a pas fallu longtemps avant que certains cherchent à exploiter cette technologie pour leurs propres fins, parfois au détriment de toute éthique. Que ce soit des cybercriminels qui inondent Facebook de publicités et de pages pour de faux ChatGPT, Google Bard et autres chatbots (voir notre article) ou des influenceurs et prétendus experts qui publient des vidéos ou vendent des formations pour apprendre à "devenir riche rapidement", tous les moyens sont bons ! Et c'est sans compter les petits malins qui ont décidé de faire rédiger intégralement des livres par ChatGPT, submergeant les éditeurs et les plateformes de vente de livres électroniques comme Amazon (voir notre article).

Et autant dire qu'ils n'hésitent pas à prendre les consommateurs pour des idiots ! La dernière tendance ? Profiter des vacances estivales pour mettre en vente sur la plateforme de Jeff Bezos de faux guides de voyage rédigés par des IA. Présentés comme des ouvrages écrits par des auteurs de renom, ils sont en réalité des amoncellements de lieux communs et de clichés, avec certains paragraphes directement copiés sur Wikipédia. Afin de parfaire l'illusion, les escrocs n'hésitent pas à tromper les internautes à l'aide de faux avis Amazon, rédigés par des bots, attribuant cinq étoiles aux produits et faisant leur éloge. Un moyen de bien référencer les guides touristiques, mais aussi de mettre en confiance et de berner l'acheteur. Il ne leur reste ensuite plus qu'à les écouler via son système d'impression sur demande.

Des guides de voyage écrits paru des IA. © New York Times

Faux guides de voyage : des arnaques qui reposent sur l'IA

C'est ce qui est arrivé à une Américaine qui désirait séjourner en France. En tapant "voyage guide France" dans la barre de recherche d'Amazon, elle a trouvé un livre très bien noté, avec une moyenne de 4,4/5 pour une quarantaine d'avis, rédigé par un certain Mikes Steves. Celui-ci se présente comme un écrivain de renom ayant réalisé de nombreux guides de voyage au fil des années. Elle se laisse séduire et passe à la caisse. Une fois l'ouvrage en main, c'est la douche froide. Le texte est rempli de banalités et ressemble à un assemblage de paragraphes tout droit tirés de Wikipédia. Quant à Mikes Steves, il est introuvable sur Internet. Aucun des articles qu'il est censé avoir rédigés pour de prestigieuses revues n'existe, et sa photo présente tous les défauts d'un portrait généré par l'intelligence artificielle. Il s'agit tout simplement d'un pseudonyme, d'un visage, pour cacher le fait que le guide a étéécrit par une IA. 

Le New York Times a utilisé des outils pour analyser différents guides de voyage suspects. Il a eu recours à Originality.ai, qui évalue la probabilité qu'une IA ait écrit un passage sur une échelle de 0 à 100, et Fakespot, une extension de navigateur qui signale les avis potentiellement "trompeurs" et les note de A à F. Tous les livres et revues évalués par le média ont été classés comme probablement faux ou écrit par l'intelligence artificielle. Il a également analysé 35 paragraphes du fameux guide, qui ont tous obtenu une probabilité de rédaction par une IA de 100 %. 

Interrogé par le New York Times, Amazon a répondu que la firme "dépensait beaucoup de temps et de ressources pour s'assurer que [ses] règles relatives au contenu soient suivies et que les livres qui n'y adhèrent pas soient retirés". Pourtant, les directives de contenu Kindle Direct Publishing d'Amazon n'empêchent pas les utilisateurs de générer du contenu à l'aide de l'IA tant que celui-ci respecte ses autres réglementations. Aussi, pour éviter de se faire avoir, il ne pas hésiter à regarder les avis négatifs, même si de nombreux avis sont de cinq étoiles. Il faut également bien vérifier la photo de l'auteur pour repérer les signes d'une génération par l'intelligence artificielle, comme des arrière-plans flous ou des déformations étranges. Enfin, il ne faut pas hésiter à faire une rapide recherche sur Internet de l'auteur, pour voir si ses travaux précédents et ses références existent bien. La vigilance est de mise !