Voix clonée par IA : de nouvelles arnaques en vue
Toujours imaginatifs et créatifs, des escrocs commencent à exploiter l'intelligence artificielle pour duper leurs victimes en clonant la voix de leurs proches. Une technique inventive qui risque fort de se populariser…
Les avancées technologiques sont incroyables, mais elles entrainent autant de dérives que de bénéfices. Il suffit d'observer les deepfakes – des photos ou des vidéos qui utilisent l'intelligence artificielle pour placer un visage sur un autre visage, et donc reproduire de "fausses" personnes – utilisés pour les revenge porns ou les fakenews, le détournement de ChatGPT en outil de triche dans le milieu scolaire, ou encore la création d'applications du même genre visant à arnaquer les utilisateurs. Dans la même optique, de nombreux hackers cherchent à se servir d'outils comme ChatGPT pour créer facilement du code malveillant et mettre au point de nouvelles attaques, tandis que d'autres utilisent l'IA pour mettre au point de fausses campagnes de recrutement sur LinkedIn ou encore pour enrichir leurs faux profils sur les sites de rencontre. Cette fois, ce sont les IA génératives de voix – elles sont capables de créer ou de recopier des voix à partir d'une simple description textuelle – qui sont au cœur de nouvelles escroqueries, comme le rapporte le Washington Post. Des outils redoutables, accessibles à tous, faciles d'utilisation et, surtout, très convaincants.
Clonage de voix : l'arnaque à l'urgence familiale dopée à l'IA
Le média américain rapporte plusieurs cas de tentatives – parfois réussies – d'arnaque par clonage de voix. Une Canadienne de 73 ans a failli perdre une somme assez conséquente lorsque des escrocs ont cloné la voix de son petit-fils, soit disant en prison. La femme note le sentiment de peur dans la voix, ce qui achève de la convaincre. Elle se rend donc, avec son mari, dans plusieurs banques pour retirer de l'argent et le libérer. Heureusement, un employé de la seconde banque a rapidement décelé quelque chose de louche, un autre client ayant déjà été ciblé de la même arnaque peu de temps auparavant. Mais tous n'ont pas eu la même chance. Une famille a reçu un appel d'un homme les informant que leur fils de 39 ans venait de tuer un diplomate américain dans un accident de voiture et qu'il fallait réunir des fonds pour le faire sortir de prison. Les parents ont ensuite eu ce qui semblait être leur fils au téléphone, qui leur a confirmé l'histoire. Ils ont donc payé 15 000 dollars aux escrocs, somme qu'ils n'ont plus jamais revue, les arnaqueurs ayant transformé l'argent en bitcoins avant de disparaître dans la nature.
En soi, le procédé n'est pas nouveau. Il s'agit de la classique mais efficace technique de "l'urgence familiale", dans lequel le pirate se fait passer pour un proche dans une situation délicate. Une fois qu'une victime a mordu, il demande de l'argent rapidement afin de se sortir du pétrin : problème à l'étranger, maladie, vol, agression… En temps normal, l'arnaque se fait via des applications de discussion instantanée, des mails ou des SMS. L'utilisation d'une voix clonée rend l'escroquerie beaucoup plus difficile à discerner. "Il y a deux ans, voire un an, il fallait beaucoup d'audio pour cloner la voix d'une personne", explique Hany Farid, un professeur à l'université de Berkeley, au Washington Post. "Aujourd'hui, si vous avez une page Facebook ou si vous avez enregistré un TikTok et que votre voix y figure pendant 30 secondes, les gens peuvent cloner votre voix."
Les malfaiteurs utilisent des logiciels de génération de voix comme VALL-E qui analysent ce qui rend la voix d'une personne unique (âge, sexe, accent, etc.) afin de la reproduire, et ce uniquement à partir d'un court extrait audio de la voix à cloner. C'est donc extrêmement facile à mettre en place et relativement accessible. Début février, la start-up ElevenLabs avait mis gratuitement à destination du public la version bêta de sa nouvelle IA, qui est capable de créer des voix à partir d'une simple description écrite. Mieux – ou pire – encore, elle peut prendre la voix d'une personne existante, à qui il est alors possible de faire dire tout ce que l'on souhaite. Autant dire que les choses n'ont pas tardé à déraper ! Des extraits audio dans lesquels on entend des personnalités célèbres tenir des propos violents, racistes ou homophobes se sont rapidement mis à circuler sur la Toile. L'un d'eux, par exemple, utilisait la voix d'Emma Watson pour lire des extraits de Mein Kampf. L'entreprise avait donc suspendu l'accès grand public le temps d'installer quelques garde-fous (voir notre article).