Vidéosurveillance augmentée par IA : une expérimentation temporaire qui pourrait devenir permanente

Vidéosurveillance augmentée par IA : une expérimentation temporaire qui pourrait devenir permanente

Le Gouvernement va tester un système de vidéosurveillance augmentée par intelligence artificielle à l'occasion des JO 2024. Mais ce dispositif temporaire de contrôle pourrait bien se prolonger et même devenir permanent.

Souvenez-vous : en mars dernier, l'Assemblée nationale votait une loi autorisant l'utilisation de l'intelligence artificielle pour la vidéosurveillance augmentée à l'occasion des Jeux olympiques de 2024 – une décision qui fait toujours débat et qui inquiète la CNIL. L'expérimentation devait initialement durer jusqu'à la fin mars 2025. Sauf que le Gouvernement pourrait bien prolonger le dispositif au-delà de sa date de fin. C'est Amélie Oudéa-Castéra, ministre des Sports, qui a évoqué cette éventualité lors de son passage dans l'émission Dimanche En Politique sur France 3, le 24 septembre. 

"C'est une expérimentation qui est menée sous le contrôle vigilant, attentif, de la Commission nationale de l'informatique et des libertés", a-t-elle expliqué. "Il n'y aura aucune prolongation de cette expérimentation sans une évaluation précise, transparente, de son efficacité au regard des enjeux de sécurité de notre pays". Elle a par la suite avoué qu'une prolongation de la vidéosurveillance algorithmique après les JO était possible, si elle "fait ses preuves". Le rapport d'évaluation doit être remis par le Gouvernement le 31 décembre 2024 au plus tard. De plus, la Commission nationale de l'informatique et des libertés (CNIL) doit être tenue informée tous les trois mois à compter de la date de mise en œuvre de l'expérimentation, et cela jusqu'au 31 mars 2025.

Vidéosurveillance augmentée : l'IA s'invite aux JO 2024

La vidéosurveillance s'est installée dans notre quotidien, et ce n'est pas près de s'arrêter. Si les systèmes de surveillance vidéo s'appuyaient au départ sur des dispositifs analogiques (caméras, magnétoscopes…) et des opérateurs humains, ils exploitent de plus en plus des technologies numériques automatisées, plus performantes mais aussi plus inquiétantes, à l'heure où l'intelligence artificielle (IA) se généralise. La Commission nationale de l'informatique et des libertés (la fameuse CNIL) avait déjà émis une mise en garde en juillet 2022 contre le déploiement des caméras dites "augmentées", qui sont de plus en plus utilisées pour surveiller l'espace public, pointant le risque pour la vie privée des citoyens (voir notre article). Un risque qui risque bien de s'accentuer avec la loi relative aux JO 2024, votée le jeudi 23 mars par l'Assemblé nationale, qui vise à créer de nouveaux dispositifs pour encadrer l'événement sportif.

En effet, cette loi porte sur de nombreux points, comme l'aménagement de l'ouverture des magasins le dimanche, l'extension des compétences du préfet de police de Paris à certains départements, l'utilisation de scanners corporels avec consentement, la réalisation de contrôles antidopage génétiques, le renforcement des sanctions pour les violences dans les stades... et l'utilisation de l'intelligence artificielle (IA) dans le domaine de la vidéosurveillance. Une utilisation qui inquiète fortement la CNIL, la gauche et les associations, mais qui a pourtant été autorisée avec 59 voix pour (majorité présidentielle - LR - RN) face à 14 voix contre (Nupes), comme le rapporte Le Monde. Cette loi prévoit que la sécurisation "de manifestations sportives, récréatives ou culturelles" d'ampleur puisse recourir à des algorithmes. Elle sera expérimentée avant et pendant les Jeux olympiques 2024. La liste des "événements" à détecter doit encore être fixée par décret, après avis de la CNIL. Lors des débats, le ministre de l'Intérieur Gérald Darmanin avait notamment cité "un départ de feu, des goulots d'étranglement de population, un colis ou un sac abandonné", mais "pas les sweats à capuche".

Vidéosurveillance par IA : une expérimentation partie pour durer

L'article 7 sème en particulier la discorde en autorisant la mise en place de dispositifs expérimentaux de vidéosurveillance automatisée, "qui utiliseront des algorithmes d'intelligence artificielle (IA) capables de détecter des situations dangereuses pour la sécurité des personnes, comme les mouvements de foule", mais aussi les colis abandonnés, les "anomalies" et les mouvements suspects. Ces caméras "intelligentes" – également appelées caméras augmentées – analysent en temps réel les images capturées afin d'"assurer la sécurité de manifestations sportives, récréatives ou culturelles (…) qui, par leur ampleur ou leurs circonstances, sont particulièrement exposées à des risques d'actes de terrorisme" . On comprend donc, dans la formulation même de l'article, que ce dispositif devait également concerner la Coupe du monde de rugby et, surtout, sera amené à rester définitivement.

© CNIL

"À situation exceptionnelle, moyens exceptionnels", avait déclaré Gérald Darmanin. Le Gouvernement a justifié le recours à l'IA par le trop grand nombre de caméras installées, car "la visualisation en direct de l'ensemble des images captées par les caméras de vidéoprotection est matériellement impossible" et l'intelligence artificielle leur ferait "gagner un temps précieux", comme le rapportait 20 Minutes. En réalité, ce serait également pour des raisons économiques, les Jeux olympiques servant de véritable vitrine mondiale pour les entreprises de caméras et de logiciels. Aussi, même si l'expérimentation est en théorie censée prendre fin le 30 juin 2025, elle semble bien partie pour durer. Le Conseil d’État soulignait d'ailleurs, dans un avis publié en décembre, que 11 des 19 mesures du texte présentaient "un caractère permanent" et étaient "conçues pour s'appliquer y compris en dehors de la période" des Jeux olympiques et paralympiques.

Caméras biométriques : les risques de dérives politiques

La CNIL partage l'avis du Conseil d’État et estime que "le déploiement, même expérimental, de ces dispositifs constitue un tournant qui va contribuer à définir le rôle général qui sera attribué à ces technologies, et plus généralement à l'intelligence artificielle". De leur côté, les associations sont sur le pied de guerre. "Le gouvernement utilise les Jeux olympiques comme prétexte pour faire passer des mesures qui visent à accélérer la surveillance de la population", s'alarmait déjà La Quadrature du net en janvier. "Le projet de loi propose d'expérimenter la vidéosurveillance automatisée alors même qu'aucune évaluation publique des dispositifs actuels de vidéosurveillance n'existe (…) ni une quelconque utilité scientifiquement démontrée", avance l'association, citant un rapport de la Cour des comptes, selon lequel "aucune corrélation globale n'a été relevée entre l'existence de dispositifs de vidéoprotection et le niveau de la délinquance commise sur la voie publique, ou encore les taux d'élucidation".

© CNIL

Dans un communiqué paru en décembre, la CNIL demandait des garanties afin d'éviter que les choses ne dérapent et que la France ne finisse par ressembler au modèle chinois et son identification biométrique, qui permet notamment de repérer des individus directement dans la rue – très pratique pour cibler les minorités, les marginaux, les lanceurs d'alertes et tout autre opposant au régime. La reconnaissance faciale, qui fait correspondre un visage humain à une image numérique grâce à des scans et des caméras de vidéosurveillance – et qui est déjà adoptée par onze pays de l'Union européenne, notamment dans un cadre judiciaire – est particulièrement crainte. Le gendarme du numérique recommandait donc "l'absence de traitement de données biométriques" et de "rapprochement avec d'autres fichiers", ce que le Sénat avait accepté. 

En mars dernier, Gérald Darmanin avait lourdement insisté sur le fait qu'il ne s'agirait ni de reconnaissance faciale, ni de données biométriques. Pour lui, il s'agit "seulement" de repérer des situations prédéterminées afin que l'opérateur décide si elles méritent une intervention. Il s'était toutefois heurté au scepticisme de certains députés. "La Défenseure des droits a rappelé explicitement que la détection de comportements dits anormaux se fondait sur des données biométriques", avait souligné Lisa Belluco (Europe Ecologie-Les Verts). "L'algorithme va permettre de reconnaître des personnes, sans nécessairement les identifier. Reconnaître signifie fournir une description suffisamment détaillée pour permettre aux agents sur le terrain de repérer une personne". L'Europe ne voyait également pas cette décision d'un très bon œil. Le 17 mars, une quarantaine d'eurodéputés avaient exprimé leur désaccord vis-à-vis de l'article 7, faisant valoir qu'en adoptant cette disposition, sans attendre les résultats des débats au niveau européen, la France "risque d'entrer en conflit avec la loi européenne" sur l'intelligence artificielle, qui devrait arriver d'ici la fin de l'année. Et d'après un rapport de 2021, le Parlement européen serait plutôt pour "l'interdiction permanente de l'utilisation de l'analyse automatisée (…), des caractéristiques humaines (…), et d'autres signaux biométriques et comportementaux". Voilà qui risque d'être problématique...