La vidéosurveillance algorithmique sera finalement généralisée en France

La vidéosurveillance algorithmique sera finalement généralisée en France

Le nouveau Gouvernement entend généraliser la vidéosurveillance algorithmique utilisée à titre d'expérimentation lors des JO 2024. Une nouvelle qui inquiète fortement la CNIL et les associations, qui craignent pour la vie privée des citoyens.

La vidéosurveillance s'est installée dans notre quotidien, et ce n'est pas près de s'arrêter. Si les systèmes de surveillance vidéo s'appuyaient au départ sur des dispositifs analogiques (caméras, magnétoscopes…) et des opérateurs humains, ils exploitent de plus en plus des technologies numériques automatisées, plus performantes mais aussi plus inquiétantes, à l'heure où l'intelligence artificielle (IA) se généralise. À l'occasion des Jeux olympiques de 2024, le précédent Gouvernement avait autorisé l'utilisation de l'IA pour la vidéosurveillance augmentée – également appelée vidéosurveillance algorithmique. Une décision qui a longtemps fait débat et a particulièrement inquiété la Commission nationale de l'informatique et des libertés (CNIL), qui y voyait un grand risque pour la vie privée des citoyens.

L'expérimentation devait initialement durer jusqu'à la fin mars 2025. Mais les précédents gouvernements avaient pris soin de laisser la porte ouverte pour que ce dispositif temporaire de contrôle puisse se prolonger et même devenir permanent (voir notre article). Une porte que Michel Barnier, le nouveau Premier ministre, s'est dépêché de franchir lors de sa déclaration de politique générale le 1er octobre, en déclarant "généralisation de la méthode expérimentée pendant les Jeux olympiques". Et ce, malgré l'absence du rapport d'évaluation prévu par la loi relative aux JO 2024...

© pixinoo

Vidéosurveillance algorithmique : une expérimentation partie pour durer

Pour rappel, la vidéosurveillance algorithmique (VSA) consiste à utiliser l'intelligence artificielle via des algorithmes pour analyser en temps réel et en continu les images de vidéosurveillance, afin d'alerter la police sur les comportements suspects. Il peut s'agir de la présence d'objets abandonnés ou d'armes, de mouvements de foule, d'un rassemblement de personnes, du non-respect par un véhicule du sens de circulation, mais aussi de la présence d'une personne ou d'un véhicule dans une zone interdite ou sensible, d'une personne au sol à la suite d'une chute ou encore de départs de feux. 

Le texte de loi relatif aux JO interdit toutefois, dans le cadre du dispositif, l'utilisation d'un système d'identification biométrique, l'utilisation de données biométriques et le recours à la reconnaissance faciale, qui consiste à identifier précisément un individu filmé. Il s'agit là d'une des lignes rouges imposées par la CNIL.

© CNIL

La vidéosurveillance algorithmique a donc été utilisée dans le cadre des Jeux olympiques, mais aussi lors du tournoi de Roland-Garros, lors de concerts comme ceux de Depeche Mode, des Black Eyed Peas, de Taylor Swift, ou encore lors du Festival de Cannes. Selon les autorités, le bilan de cette expérimentation est positif, même si le dispositif est à améliorer sur certains points. Un comité chargé d'évaluer l'expérimentation doit livrer ses conclusions dans un rapport à remettre d'ici la fin de l'année.

Jusqu'ici, le ministère de l'Intérieur assurait que l'expérimentation n'irait pas au-delà de la période indiquée dans la loi. De toute évidence, le Premier ministre semble décidé à continuer sur cette lancée, sans attendre ce rapport. Le Gouvernement répond ici favorablement à la demande du préfet de Paris Laurent Nuñez. Il faudra attendre l'officialisation de la décision pour en savoir plus sur les modalités d'application.

Vidéosurveillance avec IA : les risques de dérives politiques

Déjà, à l'époque, la vidéosurveillance algorithmique inquiétait fortement la CNIL, la gauche et de nombreuses associations. Les défenseurs des droits et libertés craignaient que les Jeux olympiques ne soient qu'un prétexte pour implanter le système de vidéosurveillance algorithmique au-delà de la fin de l'expérimentation. Il semble que ce soit effectivement le cas.

Dans un communiqué paru en janvier 2023, la CNIL demandait des garanties afin d'éviter que les choses ne dérapent et que la France ne finisse par ressembler au modèle chinois et son identification biométrique, qui permet notamment de repérer des individus directement dans la rue – très pratique pour cibler les minorités, les marginaux, les lanceurs d'alertes et tout autre opposant au régime. Car se pose la question de qui définit la norme... Et, selon la réponse, cela peut aboutir à la criminalisation de comportements jusqu'alors anodins.

© CNIL

La reconnaissance faciale, qui fait correspondre un visage humain à une image numérique grâce à des scans et des caméras de vidéosurveillance – et qui est déjà adoptée par onze pays de l'Union européenne, notamment dans un cadre judiciaire – est particulièrement crainte. De nombreuses organisations redoutent que la vidéosurveillance algorithmique n'ouvre la boîte de Pandore et mène à l'utilisation de la reconnaissance faciale. Le gendarme du numérique recommandait donc "l'absence de traitement de données biométriques" et de "rapprochement avec d'autres fichiers".

"En légalisant quelques usages de VSA, l'État souhaite légitimer un état de fait et amorcer un projet de surveillance bien plus large de l'espace public", s'alerte la Quadrature du Net. "Derrière cette légalisation inédite, qui porte sur un petit nombre de cas d'usage (départs de feux, individus marchant à contre-sens, etc.), ce sont d'autres applications qui pourraient à leur tour être légalisées. De nombreux responsables politiques assument publiquement de vouloir autoriser le suivi et la catégorisation biométriques de la population, y compris à travers la reconnaissance faciale ou encore la reconnaissance des émotions."

Même son de cloche du côté de Human Rights Watch, dont la directrice de la division Technologie et Droits humains, Frederike Kaltheuner, avait déclaré en mars 2023 : "La disposition relative à la surveillance contenue dans le projet de loi constituerait une grave menace pour les libertés civiques et les principes démocratiques. Elle augmenterait le risque de discrimination raciale dans l'application de la loi et constituerait un pas de plus vers la normalisation de mesures de surveillance exceptionnelle sous prétexte d'assurer la sécurité de grands évènements".

De plus, elle considère que ce système de surveillance impliquera automatiquement la reconnaissance faciale, malgré les promesses contraires du Gouvernement. "Si l'usage de caméras dotées d'algorithmes est destiné à détecter des événements suspects spécifiques dans l'espace public, ces caméras capteront et analyseront forcément des traits physiologiques et des comportements de personnes présentes dans ces espaces. Il pourra s'agir de la posture de leurs corps, de leur démarche, de leurs mouvements, de leurs gestes ou de leur apparence. Le fait d'isoler des personnes par rapport à leur environnement, qui s'avère indispensable en vue de remplir l'objectif du système, constitue une identification unique", s'alarme-t-elle. Car reconnaître signifie fournir une description suffisamment détaillée pour permettre aux agents sur le terrain de repérer une personne. Rappelons qu'une fois que le pied est dans la porte, il est impossible de la refermer.