L'IA débarque dans la vidéosurveillance pour prédire les crimes en Argentine

L'IA débarque dans la vidéosurveillance pour prédire les crimes en Argentine

Le président argentin a créé une Unité dédiée à la sécurité qui, grâce à l'IA, devra "prédire les crimes futurs". Un dispositif qui inquiète fortement les défenseurs des droits de l'Homme...

La vidéosurveillance s'est installée dans notre quotidien, et ce n'est pas près de s'arrêter. Si les systèmes de surveillance vidéo s'appuyaient au départ sur des dispositifs analogiques (caméras, magnétoscopes…) et des opérateurs humains, ils exploitent de plus en plus des technologies numériques automatisées, plus performantes mais aussi plus inquiétantes, à l'heure où l'intelligence artificielle (IA) se généralise. On assiste d'ailleurs au déploiement progressif, à l'échelle mondiale, des caméras dites "augmentées", qui sont de plus en plus utilisées pour surveiller l'espace public. Une pratique répandue dans des pays comme les États-Unis, la Chine, le Royaume-Uni, Israël, Singapour, l'Inde, mais aussi la France

C'est au tour du président argentin d'extrême droite Javier Milei – connu pour avoir fait d'une tronçonneuse le symbole de sa campagne électorale, avec la suppression de plusieurs ministères sociaux – de lorgner du côté de cette technologie. Comme le rapporteThe Guardian, il a annoncé, le jeudi 1er août, la création d'une Unité d'intelligence artificielle appliquée à la sécurité (UIAAS). Celle-ci aura pour mission d'utiliser les "algorithmes d'apprentissage automatique" pour analyser "les données historiques sur la criminalité", dans l'objectif de "prédire les futurs crimes et contribuer à leur prévention". Un dispositif qui inquiète grandement les défenseurs des droits de l'Homme…

Cybersurveillance en Argentine : établir des profils de suspects grâce à l'IA

L'UIAAS sera dirigée par le Directeur de la Cybercriminalité et des Affaires cybernétiques et sera intégrée par les Forces de Police et de Sécurité Fédérales argentines. Elle aura pour mission "la prévention, la détection, l'investigation et la poursuite du crime et de ses connexions à travers l'utilisation de l'intelligence artificielle." 

Pour cela, elle devra "identifier les modèles inhabituels dans les réseaux informatiques et détecter les cybermenaces avant que les attaques ne se produisent", qu'il s'agisse de logiciels malveillants, de phishing ou "d'autres formes de cyberattaques". Elle devra également "traiter de gros volumes de données provenant de diverses sources pour extraire des informations utiles et créer des profils suspects ou identifier des liens entre différents cas", ainsi que patrouiller sur les médias sociaux publics, les applications, les sites Internet et même le Dark Web "afin d'enquêter sur les délits et d'identifier leurs auteurs, ainsi que de détecter les situations de risque grave pour la sécurité". Enfin, elle devra analyser les activités sur les réseaux sociaux pour "détecter les menaces potentielles, identifier les mouvements des groupes criminels et anticiper les troubles".

En parallèle, l'unité sera chargée des opérations de surveillance par drone et utilisera la reconnaissance faciale pour renforcer les mesures de sécurité et identifier les personnes recherchées. Tout un programme donc !

Cybersurveillance en Argentine : un fort risque de dérives totalitaires

Il y a toutefois un petit hic dans ce joyeux programme : les points développés dans le document ne précisent pas l'encadrement derrière cet usage de l'IA, ce qui peut faire craindre une dérive vers une surveillance de masse. Selon plusieurs organisations, cette mesure pourrait porter atteinte aux droits humains. "La surveillance à grande échelle porte atteinte à la liberté d'expression, car elle encourage les gens à s'autocensurer ou à s'abstenir de partager leurs idées s'ils soupçonnent que tout ce qu'ils commentent, publient ou postent est surveillé par les forces de sécurité", a déclaré Mariela Belski, directrice exécutive d'Amnesty International Argentine. 

De son côté, le Centre argentin d'études sur la liberté d'expression et l'accès à l'information (CELE) déplore "l'opacité qui entoure l'acquisition et la mise en œuvre des technologies" et rappelle que ces technologies ont déjà été utilisées par le passé pour "établir le profil d'universitaires, de journalistes, de politiciens et d'activistes"

L'autre inquiétude concerne la collecte des données personnelles utilisées pour enquêter ou établir la fameuse fiche de "suspects potentiels". Là encore, les critères pour évaluer ce qui peut conduire, ou non, à suspecter une personne ne sont pas détaillés dans la résolution, ce qui laisse la porte ouverte à des dérives totalitaires. Quant à la question de la protection des données, les experts s'inquiètent de savoir qui pourra accéder aux informations produites par l'IA, et comment ces dernières auront été récupérées. 

Point d'inquiétudes toutefois ! Une source du ministère de la Sécurité interrogée par The Guardian assure que cette unité "travaillera dans le cadre législatif actuel, notamment dans le cadre de la loi sur la protection des renseignements personnels". Nous voilà rassurés !