Meta modifie la politique de modération de Facebook et Instagram, ouvrant la porte à la désinformation
Alors que la désinformation et les fake news se multiplient sur Internet, Meta décide de supprimer son programme de fact-checking sur Facebook, Instagram et Thread. Une décision politique qui ouvre la porte aux pires dérives.
Les réseaux sociaux sont plébiscités par les internautes pour connaître en quelques secondes les informations en provenance du monde entier, y compris pour essayer de comprendre les troubles politiques qui agitent le pays. Toutefois, face à la quantité de sources disponibles, on peut vite se retrouver perdu et avoir du mal à déterminer les données fiables et pertinentes. D'autant plus que certains acteurs jouent là-dessus afin de propager des fake news et d'infléchir l'opinion publique, notamment lors des élections.
Face à la désinformation, les plateformes adoptent des attitudes radicalement différentes. Certaines s'efforcent de mettre en place des outils permettant de détecter des informations ou des images trompeuses. Et d'autres, au contraire, n'en ont strictement rien à faire, voire ont des intérêts à l'encourager. C'est le cas de Meta, qui nous fait une Elon Musk en annonçant, le 7 janvier, mettre fin à son programme de fact-checking aux États-Unis. Un recul majeur de sa politique de modération des contenus...
Fin du fact-checking : un système accusé de faire trop d'erreurs
Avec son programme de fact checking, Meta rémunère plus de 80 médias à travers le monde pour qu'ils vérifient les publications sur ses réseaux sociaux Facebook, Instagram et Threads. Aux USA, ce sont dix médias ou organisations qui voient à présent leur collaboration s'arrêter sans préavis. En France, on peut citer l'AFP et Les Surligneurs. Avec ce système, les publications jugées fausses ou trompeuses se voient attribuer une petite étiquette, leur visibilité se trouve alors limitée, les internautes qui les ont publiées en sont informés et, s'ils récidivent, peuvent faire l'objet de restrictions.
Mais ce fonctionnement ne semble plus convenir à Mark Zuckerberg, qui affirme, en parlant du fact-checking et des autres postes supprimés des plateformes qu'il y a "trop d'erreurs". "Même si seulement 1 % des publications est censuré par accident, ça fait des millions de personnes. Ça fait trop d'erreurs, et trop de censure", affirme-t-il. Un argument qui ne convainc guère.
Comme le révèle FranceInfo, Meta a dévoilé, dans un rapport remis à la Commission européenne en octobre 2024, des chiffres visant à montrer dans quelle mesure Facebook respecte bel et bien le DSA, le règlement européen sur les services numériques. Il en ressort que Facebook a jugé fausses ou partiellement fausses près de 19 millions de publications sur le réseau social entre avril et septembre 2024 en Europe. Parmi elles, 0,9 % des vérifications ont fait l'objet d'une réclamation par les internautes, soit environ 170 000 publications. Après un nouvel examen, seuls 5 400 posts ont été réhabilités. Cela représente un taux de 0,02 % d'erreur... Quant aux publications supprimées pour avoir enfreint le règlement des plateformes, il y en a eu 73,7 millions, dont seules 2 millions ont été jugées erronées. Cela représente un taux d'erreur de 2,7 %.
Le patron de Meta a également déclaré que "les fact-checkeurs ont été trop biaisés politiquement et ont détruit la confiance, bien plus qu'ils ne l'ont renforcée". S'il est impossible de vérifier sa première affirmation, plusieurs études ont cependant montré que le fact-checking avait bien un effet positif. Il avait notamment permis de diminuer la consultation des sites d'informations fallacieux et trompeurs, et était très apprécié par les utilisateurs.
Fin du fact-checking : la porte ouverte à la désinformation
Pour remplacer le programme de fact-checking, Meta souhaite mettre en place un système similaire aux fameuses notes de la communauté que l'on trouve sur X (ex Twitter). "Nous avons vu cette approche fonctionner sur X – où ils donnent à leur communauté le pouvoir de décider quand les messages sont potentiellement trompeurs et nécessitent plus de contexte, et où les gens à travers un large éventail de perspectives décident quel type de contexte est utile pour les autres utilisateurs", a expliqué Mark Zuckerberg.
La firme se veut rassurante. "Tout comme sur X, les Notes de la Communauté devront faire l'objet d'un accord entre des personnes ayant des points de vue différents afin d'éviter les évaluations biaisées. Nous avons l'intention d'être transparents sur la façon dont les différents points de vue influencent les notes affichées dans nos applications, et nous travaillons sur la bonne façon de partager cette information", a-t-elle assuré. Ce nouveau système sera progressivement introduit au cours des deux prochains mois aux États-Unis. Les utilisateurs américains de Facebook, Instagram et Threads peuvent d'ailleurs s'inscrire dès aujourd'hui pour faire partie des premiers contributeurs lorsque ce programme sera disponible.
Toutefois, le système de notes de la communauté est assez controversé, car il nécessite de refaire une vérification dans la foulée, pour savoir si la note est bien véridique. Il est très facile d'organiser un raid de fake news... Il n'est toutefois pas inutile puisque, selon les chercheurs, les notes permettent de diminuer "à peu près 20 % de la diffusion de la désinformation" sur X. Mais elles ne suffisent pas à elles seules. De nombreux contenus que les journalistes fact-checkeurs trouvent faux ou trompeurs ne reçoivent en effet aucune note de la communauté.
Politique de modération : un changement dangereux qui incite à la haine
En plus de ce nouveau système de notes communautaires, Meta va mettre en place d'autres changements "pour revenir à [ses] racines". Dans l'objectif de"restaurer" la liberté d'expression sur ses plateformes, la société va effectuer d'autres modifications dans la politique de modération de ses plateformes. Selon elle, les systèmes automatisés utilisés pour rechercher les violations de ces politiques ont "entraîné trop d'erreurs et trop de contenus censurés qui n'auraient pas dû l'être". Si elle va continuer à les utiliser pour les violations illégales et graves, comme le terrorisme, l'exploitation sexuelle des enfants et la drogue, elle s'appuiera en revanche sur "le signalement d'un problème par quelqu'un avant de prendre une quelconque mesure" pour "les violations moins graves".
De plus, Meta va désormais autoriser les discours concernant des sujets comme l'immigration, l'identité sexuelle et le genre, "qui font l'objet d'un discours et d'un débat politiques fréquents". Elle entend ainsi "mettre fin à la dérive qui a rendu [ses] règles trop restrictives et trop susceptibles d'être appliquées à outrance". Par exemple, les réseaux sociaux autorisent désormais "les allégations de maladie mentale ou d'anomalie fondées sur le sexe ou l'orientation sexuelle, compte tenu du discours politique et religieux sur le transgenrisme et l'homosexualité". Bref, il est autorisé d'accuser les personnes transgenres ou homosexuelles d'être atteintes de troubles mentaux. Autant dire que cela suscite de vives inquiétudes chez les défenseurs des droits LGBTQ+ et des droits des femmes.
Fin du fact-checking : une décision avant tout politique
Le virage de Meta dans la lutte contre la désinformation n'est pas nouveau. En avril dernier déjà, l'entreprise avait fait polémique en annonçant la fin de CrowdTangle, un logiciel considéré comme essentiel pour repérer et analyser la désinformation sur Facebook et Instagram (voir notre article). Lors des précédentes élections, il avait pourtant permis de suivre en temps réel la propagation de théories du complot, d'incitations à la violence ou de campagnes de manipulation pilotées de l'étranger.
Mais ces modifications s'inscrivent aujourd'hui dans un contexte politique particulier, où Mark Zuckerberg multiplie les appels du pied à Donald Trump, grand critique des vérificateurs de l'information et propagateur de fake news, depuis la réélection de ce dernier. Mark Zuckerberg a d'ailleurs affirmé que la réélection de Donald Trump serait le signe d'un changement culturel aux États-Unis, porté par une volonté de remettre en avant la liberté d'expression. Il adopte donc le même discours qu'Elon Musk, alors qu'il avait pourtant banni l'homme politique de ses réseaux sociaux en 2021, avant de le réhabiliter. Autre signe de connivence avec le nouveau président des États-Unis : une réunion dans la résidence de Mar-a-Lago de Donald Trump, ainsi que la nomination du républicain Joel Kaplan et du patron de l'UFC Dana White, deux importants pro-Trump, au sein de la direction de Meta.
Fin du fact-checking : la France et l'Europe très inquiètes
Pour le moment, ces changements ne vont concerner que les États-Unis, les fact-checkers continueront d'exister en Europe. Mais la situation tes très instable. Parmi les régions du monde qu'il considère comme pro-Censure, Mark Zuckerberg a cité l'Union européenne, car elle compterait de plus en plus de lois "institutionnalisant la censure". Il affiche clairement sa volonté d'inverser cette tendance et entend "travailler avec le président Trump pour s'opposer aux gouvernements étrangers qui s'attaquent aux entreprises américaines pour censurer davantage". Une allégeance à peine déguisée, qui inquiète d'autant plus les autorités européennes étant donné les accusations d'ingérences d'Elon Musk, proche conseiller de Donald Trump, dans les élections en Allemagne.
Jai echangé avec la direction de Meta France ce soir qui massure que cette fonctionnalité ne sera déployée quaux Etats-Unis pour le moment. En Europe, le Digital Service Act sera respecté. Croyez en ma vigilance sur le sujet. https://t.co/EWOnqxCnbt
— Clara Chappaz (@ClaraChappaz) January 7, 2025
Dans un communiqué, la France a exprimé son "inquiétude" face à cette décision. Le ministère de l'Europe et des Affaires étrangères déplore la décision de Meta "de remettre en cause l'utilité de la vérification de l'information (fact-checking) pour limiter la circulation de fausses informations". Le Gouvernement entend maintenir sa vigilance quant au respect des obligations de l'entreprise dans le cadre du DSA, qui fait "partie intégrante du bon fonctionnement démocratique de l'UE, et pour protéger nos concitoyens des ingérences étrangères et manipulations de l'information." "La liberté d'expression, droit fondamental protégé en France et en Europe, ne saurait être confondue avec un droit à la viralité qui autoriserait la diffusion de contenus inauthentiques touchant des millions d'utilisateurs sans filtre ni modération", a de son côté affirmé le porte-parole de la diplomatie française.
Quant à la Commission européenne, elle a bien entendu rejeté les affirmations de Mark Zuckerberg selon lesquelles "l'Europe [adoptait] un nombre croissant de lois institutionnalisant la censure et rendant difficile toute innovation". Elle rappelle que le DSA n'oblige pas les plateformes à supprimer des contenus licites, mais à retirer les contenus qui pourraient être nuisibles, notamment pour les enfants et les démocraties européennes.