Pédophilie : Instagram recommande des vidéos d'enfants sexualisés aux adultes
Instagram alimente-t-il volontairement la pédopornographie ? L'algorithme du réseau social recommanderait des vidéos de sexe et d'enfants sexualisés aux utilisateurs suivant uniquement des enfants, le tout entrecoupé de publicité.
Les ennuis continuent pour Meta. Alors que l'abonnement payant pour Facebook et Instagram est attaqué en justice par des associations et que le réseau social est accusé par plusieurs États américains de "convoiter et attirer" les moins de 13 ans sur sa plateforme – alors qu'elle est censée être interdite aux utilisateurs de cet âge –, la firme de Mark Zunckerberg est une fois de plus en mauvaise posture. Cette fois, ce sont les algorithmes pour les Reels qui posent un problème. Destinés à stimuler l'engagement des utilisateurs, ces systèmes sont entraînés pour leur proposer davantage de contenus liés à ceux qui les intéressent. Or, d'après une enquête du Wall Street Journal, Instagram recommanderait des contenus d'adultes "ouvertement sexuels" et des vidéos sexualisant des enfants aux utilisateurs suivant uniquement des enfants ou des adolescents.
Instagram : une alternance de contenus sexuels et de publicités
Le quotidien américain a tout d'abord remarqué que bon nombre des abonnés des comptes des utilisateurs étaient des hommes d'âge mûr "ayant démontré un intérêt pour les contenus sexualisés, aussi bien autour d'enfants que d'adultes". Il s'est alors permis de réaliser quelques tests, en créant des comptes ne suivant que de jeunes gymnastes, des pom-pom girls et d'autres préadolescents et adolescents influenceurs. L'algorithme des Reels n'a alors pas tardé à leur recommander un mélange de pornographie pour adulte et de contenus sexualisant des enfants. Le tout entrecoupé de publicités pour de grandes marques américaines, comme Walmart, Disney et Pizza Hut, afin d'engranger le maximum de revenus.
Dans un flux de Reels recommandés par Instagram, une publicité pour l'application de rencontres Bumble est apparue entre une vidéo d'une personne caressant le visage d'une poupée en latex grandeur nature et une autre d'une jeune fille dont le visage est masqué numériquement et qui soulève sa chemise pour dévoiler son ventre. Dans un autre cas, une publicité pour Pizza Hut arrivait après une vidéo d'un homme allongé sur un lit et entourant de son bras une fillette de 10 ans. Les journalistes ont également pu observer du contenu d'une créatrice pour adultes montrant son entre-jambe et d'une autre faisant des mouvements de va-et-vient. Et ce ne sont pas des tests isolés ! Le Canadian Center for Child Protection, une organisation de protection de l'enfance, a mené des tests similaires à la mi-novembre et a également conclu que le réseau social recommandait des contenus avec "des adultes et des enfants prenant des poses à caractère sexuel".
Instagram et pédopornographie : une histoire qui ne date pas d'hier
Les conséquences de ces révélations ne se sont pas fait attendre : plusieurs annonceurs ont décidé de retirer leurs publicités de la plateforme. C'est le cas de l'application de rencontres Bumble, du groupe Match – la maison mère de Tinder – et de Disney. De son côté, Meta assure que les tests réalisés par le journal ne reflètent pas la réalité. "Nos systèmes sont efficaces pour réduire les contenus préjudiciables, et nous avons investi des milliards dans des solutions de sûreté, de sécurité et d'adéquation de la marque", assure Samantha Stetson, vice-présidente de Meta chargée des relations avec l'industrie de la publicité. L'entreprise a affirmé qu'elle enquêtait sur le problème et était prête à payer pour que des audits de sécurité soient effectués par une société externe afin de vérifier la fréquence à laquelle des publicités se retrouvaient à côté de contenus considérés comme inacceptables.
Pourtant, le problème est connu depuis plusieurs années déjà. En 2018, Le Roi des rats, un youtubeur spécialisé dans les dérives d'Internet, avait déjà pointé du doigt qu'Instagram était un véritable terrain de chasse de pédophiles et un lieu de circulation de contenus pédopornographiques. De même, le Wall Street Journal avait révélé en juin dernier que le réseau social était la principale plateforme utilisée par des réseaux pédocriminels pour la promotion et la vente de contenus pédopornographiques – certains utilisateurs se servent des hashtags explicites comme #pedowhore ou #preteensex pour effectuer leurs recherches.
Le pire, c'est que Meta ne ferait pas volontairement les changements nécessaires parce que ce type de contenu suscite de l'engagement de la part des utilisateurs, et donc rapporte de l'argent. D'après des documents de l'entreprise consultés par le quotidien américain, les responsables de sécurité de la firme n'ont généralement pas le droit d'apporter des modifications à l'algorithme susceptibles de réduire le nombre d'utilisateurs actifs quotidiens sur la plateforme d'une manière mesurable. C'est qu'il y a des priorités !