C'est officiel : les GAFAM n'ont plus le droit de lire vos messages privés
Le Parlement européen a refusé de prolonger la loi qui permettait à Meta, Google ou encore Apple d'analyser automatiquement les messages privés de leurs utilisateurs. Mais il ne faut pas baisser la garde pour autant…
Pour des millions d'Européens, ce 3 avril 2026 est un jour à marquer d'une pierre blanche ! Depuis 2021, une dérogation au cadre européen de protection des communication permettait aux grandes plateformes comme Gmail, Instagram Direct, Discord, Snapchat, Skype, Xbox Live ou encore iCloud d'Apple d'analyser automatiquement les messages privés de leurs utilisateurs. Ce régime exceptionnel, instauré au nom de la lutte contre les contenus pédocriminels et prolongé les années suivantes, autorisait le scan de textes, d'images et de vidéos sans mandat judiciaire ni suspicion ciblée, dans une logique dite "volontaire" mais très peu transparente pour les utilisateurs.
Seulement, ce dispositif est finalement arrivé à son terme ce 3 avril, sans que les autorités européennes ne parviennent à se mettre d'accord pour le renouveler. Une grande victoire pour les défenseurs de la vie privée, qui dénonçaient depuis plusieurs années une forme de surveillance généralisée incompatible avec les principes européens de confidentialité des communications.
Surveillance des messageries : une prolongation évitée de peu
La fin de ce régime n'est toutefois pas le fruit d'un consensus politique apaisé, mais celui d'un vote extrêmement serré au Parlement européen. Le 26 mars 2026, les eurodéputés ont en effet refusé de prolonger la dérogation, mais tout s'est joué à un seul bulletin d'écart. En tout cas, cette nouvelle a fait des heureux ! L'ONG CDT Europe s'est ainsi félicitée de la fin du "scan massif, volontaire et de masse des communications privée ".
Même chose du côté de l'ex-eurodéputé du parti pirate allemand Patrick Breyer, fervent opposant à ce dispositif. "Fini la surveillance de masse, place au travail policier ciblé et aux apps sûres", écrit-il sur son site Web. "Le contrôle de masse non ciblé des conversations est aussi inacceptable que d'ouvrir sans discernement le courrier postal de tout le monde. Pendant quatre ans, ce système défaillant a servi d'alibi pour retarder la mise en place de véritables mesures, submergeant au contraire les forces de police de fausses alertes et de doublons".
En plus des enjeux de confidentialité, l'efficacité même du dispositif a été largement remise en cause. En effet, 99 % des signalements transmis aux polices européennes provenaient Meta et 99 % d'entre eux concernaient des fichiers déjà répertoriés dans les bases de données des autorités. Bref, cela n'apportait strictement rien de nouveau. Pire, selon le BKA, la police criminelle fédérale allemande, 48 % de ces conversations signalées n'étaient pas pénalement exploitables. Enfin, 40 % des enquêtes déclenchées visaient des adolescents ayant partagé des images de manière consensuelle entre mineurs. En plus, ce flot de faux positifs faisait courir un risque aux véritables victimes en masquant les vrais signaux d'alerte.
Chat Control : la menace de la surveillance plane toujours
Mais le texte n'a pas encore dit son dernier mot. Un projet de règlement plus ambitieux, le Règlement sur la détection des contenus d'abus sexuels sur mineurs (CSAM) – également connu sous le nom de "Chat Control 2.0" –, est toujours en discussion entre le Parlement, le Conseil et la Commission. Après avoir été rejeté plusieurs fois, il est toujours bloqué dans un processus de négociation long et conflictuel.
Ce texte vise à instaurer un cadre permanent pour lutter contre les abus sexuels sur mineurs en ligne, mais soulève de fortes inquiétudes (voir notre article). Alors que le Parlement européen pousse plutôt pour des mesures ciblées et encadrées, plusieurs États voudraient de nouveau rétablir un scan de masse "volontaire". Et c'est sans compter ceux qui voudraient un durcissement du scan.
Une de ses mesures vise aussi à obliger les messageries et les boutiques d'applications à vérifier l'identité des utilisateurs, via une pièce d'identité ou un scan facial. Cela marquerait donc la fin de la communication anonyme en ligne, avec tous les risques et toutes les dérives qui en découlent. Cette vérification pourrait également créer des barrières pour les jeunes adultes et les adolescents, conduisant à un isolement numérique. Sans compter que les utilisateurs pourraient se détourner des services de messagerie qui appliquent de telles mesures de surveillance pour migrer vers des plateformes non surveillées. La vigilance est donc de mise car, si le texte a plusieurs fois été refusé, les lobbies n'ont pas dit leur dernier mot !
La situation actuelle est donc une phase de transition. La fin du scan généralisé constitue un recul net de la surveillance de masse dans l'immédiat, mais elle ne règle pas la question de fond : comment concilier efficacement la lutte contre les crimes les plus graves en ligne avec la protection des libertés fondamentales ?
Pour Patrick Breyer, la solution se trouve dans la suppression des contenus à la source – notamment sur le Dark Web. Il a d'ailleurs publié un plan pour expliquer comment protéger les plus vulnérables sans avoir à surveiller tout le monde. Cela passerait notamment par des applications sécurisées par défaut pour les mineurs, ainsi qu'un renforcement des enquêtes ciblées avec mandat judiciaire. Il appelle également à une éducation numérique obligatoire dans les lycées et à l'adoption de protocoles de protection de l'enfance dans toutes les structures accueillant des mineurs. En attendant, les contenus publics publiés sur les réseaux sociaux, tout comme les fichiers stockés dans un cloud non chiffré, peuvent toujours être analysés par les entreprises du numérique, sur la base du volontariat.
