ChatGPT Atlas est bien trop curieux : il collecte des données personnelles très sensibles

ChatGPT Atlas est bien trop curieux : il collecte des données personnelles très sensibles

Alors qu'OpenAI vient de lancer ChatGPT Atlas, son navigateur Web basé sur son IA, des chercheurs alertent sur la menace que représente ce nouveau produit, notamment en termes de confidentialité et d'exploitation de données privées.

Il y a quelques jours, OpenAI a mis un coup de pied dans la fourmilière en lançant ChatGPT Atlas, son propre navigateur Web basé sur son intelligence artificielle (voir notre article). Avec lui, l'entreprise entend remplacer la navigation traditionnelle par une IA capable de penser et d'agir au nom des utilisateurs. Mais au-delà de l'enthousiasme que suscite une telle technologie, ChatGPT Atlas soulève déjà de vives inquiétudes en matière de respect de la vie privée.

En effet, le navigateur Web possède une "mémoire" dans laquelle il enregistre tous les éléments de navigation, comme les sites visités, les éléments du contenu ou le comportement de l'internaute, ce qui lui permet de mieux comprendre l'utilisateur, de se souvenir des précédentes interactions et de s'appuyer sur l'historique pour personnaliser les résultats. Bien sûr, OpenAI a mis en place des garde-fous pour les données les plus sensibles, mais une technologue a découvert, au cours de ses tests, que l'IA ne filtre pas bien les données qu'elle doit ou non retenir. Un fonctionnement qui crée une menace de taille pour la vie privée des internautes.

ChatGPT Atlas : une IA qui sait tout et se souvient de tout

Interrogée par ABC, Victoria Noble, porte-parole de l'Electronic Frontier Foundation, explique que le navigateur d'OpenAI stocke des "souvenirs" du contenu consulté sur chaque page Web. Par exemple, pour un utilisateur qui utilise ChatGPT Atlas pour organiser ses vacances, l'IA va retenir ses préférences de voyage, la compagnie aérienne utilisée, son calendrier en ligne, etc. Ces données sont traitées sur les serveurs d'OpenAI sous forme de résumés, ce qui permet à l'outil de personnaliser ses réponses en fonction de son activité de navigation.​ Ce fonctionnement dépasse largement ce que propose actuellement Chrome avec Gemini, l'un des concurrents principaux à ChatGPT, car ce dernier peut uniquement répondre à des questions sur l'historique de navigation si l'utilisateur le demande explicitement, mais en aucun cas il ne se souvient du contenu des pages Web. Finalement, nous ne disposons que de très peu d'informations sur la façon dont la firme de Sam Altman stocke les données collectées, comment elle filtre les informations personnelles, et même sur la quantité réelle de données collectées.

© OpenAI

Et c'est sans compter sur ChatGPT Agent, l'assistant IA autonome capable d'effectuer des tâches complexes en ligne, quasiment sans intervention humaine. Avec lui, on passe d'une simple recherche à un copilote surpuissant et omniprésent. Et là, il est vraiment nécessaire d'avoir conscience du degré auquel on veut partager nos données privées. "Si cette intégration promet une certaine commodité, elle introduit également une vulnérabilité cachée critique : la confiance mal placée", alerte Adrien Merveille, Directeur technique France de Check Point Software. "Plus vous l'utilisez, plus il collecte de données sensibles, des identifiants personnels aux informations de santé ou financières. Entre de mauvaises mains, ces données peuvent être exploitées pour des escroqueries, du vol de données ou du profilage indésirable par des annonceurs ou des assureurs." Là où il y a un vrai défi de sécurité, c'est que, jusqu'à présent, c'était toujours l'utilisateur lui-même qui effectuait l'action. Par conséquent, il y avait encore une barrière entre ce qu'il acceptait de confier à ChatGPT, et sa vie numérique en dehors du chatbot. Avec Atlas, cette barrière tombe.

Bien évidemment, OpenAI s'est montré rassurant, en affirmant que son navigateur n'enregistrerait pas dans sa mémoire certaines informations sensibles, comme les mots de passe, les données médicales ou les coordonnées bancaires. Sauf que ce n'est pas ce que disent les tests réalisés par Lena Cohen, technologue à l'ONG Electronic Frontier Foundation, comme le rapporte le Washington Post. Elle s'est rendue compte que ChatGPT Atlas gardait bel et bien dans sa mémoire des informations concernant des sites liés à la santé intime. Le navigateur s'est notamment souvenu qu'elle s'était inscrite à des services de santé sexuelle et reproductive sur la plateforme Parenthood Direct et a même gardé en mémoire le nom du médecin qui a été consulté.

Cette découverte prouve que le système de filtrage d'OpenAI ne fonctionne pas correctement concernant les données sensibles des internautes. Il est donc possible que des données sensibles soient collectées et stockées sur les serveurs de l'entreprise, et elles pourraient tout à fait atterrir entre de mauvaises mains. C'est pour cela que la chercheuse estime que "l'ampleur de la collecte de données dans Atlas est un cauchemar pour la vie privée des utilisateurs". D'autant plus que ces données pourraient être demandées par les autorités, notamment pour des activités légales dans certains États des Etats-Unis, mais pas dans d'autres, comme l'avortement.​

ChatGPT Atlas : un système de contrôle des données trop complexe

Conscient de ces enjeux, OpenAI a promis que ces données ne seraient pas utilisées pour entraîner leurs modèles par défaut, mais leurs promesses n'engagent que ceux qui y croient. L'entreprise a aussi mis en place des fonctions permettant à l'utilisateur de contrôler les informations enregistrées. Ainsi, il peut demander au navigateur d'ignorer certains sites via la barre d'adresse, effacer ses souvenirs en supprimant l'historique, ou encore consulter et supprimer individuellement les mémorisations dans les paramètres. Le navigateur dispose également d'un mode incognito.

© OpenAI

Toutefois, le système de contrôle mis en place par OpenAI est loin d'être simple. Dans la barre d'adresse, qui permet de discuter avec ChatGPT, il faut dire explicitement à l'IA de ne pas mémoriser un site Web, et ce, à chaque fois que l'on visite une page contenant une information jugée comme trop sensible. Autant dire qu'on imagine mal les internautes penser à prévenir l'IA de façon répétée au cours de leur navigation. En plus, ces souvenirs sont stockés séparément de ceux que ChatGPT accumule déjà sur les utilisateurs. C'est pourquoi la chercheuse estime que l'approche d'OpenAI en matière de confidentialité et de données est inutilement complexe. Trop d'internautes, pas forcément technophiles, risquent de ne pas parvenir à configurer correctement les fonctions liées à la mémoire pour protéger leur vie privée.

ChatGPT Atlas : le risque de l'IA agentique et des détournements

Et ce n'est pas le seul problème que pourrait poser l'IA agentique. Au début, l'internaute va surveiller ce qu'elle fait, mais, une fois qu'il aura pris l'habitude, il risque de lui faire confiance, la laissant prendre des libertés et faire des erreurs ou des actions qui n'étaient pas planifiées initialement. L'entreprise elle-même rappelle qu'il peut arriver à son IA de commettre des erreurs, voire même d'être manipulée par des instructions cachées dans des pages Web ou des e-mails frauduleux, ce qui peut conduire à un vol de données ou à l'infection de l'appareil par un malware. Elle a beau avoir mis là aussi des garde-fous, elle sait que cela n'arrêtera pas toutes les attaques.

© OpenAI

"Sur le plan technique, les modèles IA intégrés peuvent être vulnérables à des attaques comme l'injection de prompt ou l'empoisonnement de données", nous explique Benoit Grünemwald, expert cybersécurité chez ESET. "Ces attaques peuvent détourner l'agent pour exécuter des commandes malicieuses, exfiltrer des données ou compromettre la sécurité du système. L'autonomie croissante de ces agents, combinée à leur accès à des ressources critiques (navigation, identifiants, moyens de paiement), élargit considérablement la surface d'attaque." 

Sans compter que "attaquer les systèmes d'IA ne nécessite plus de code sophistiqué", alerte Adrien Merveille. "Les exploits modernes s'appuient désormais sur le langage naturel et l'ingénierie sociale, ce qui réduit considérablement les risques d'intrusion." Un jeu développé par Lakera, une entreprise spécialisée dans la sécurité de l'intelligence artificielle, du nom de Gandalf – oui, comme le magicien du Seigneur des Anneaux – permet d'ailleurs d'en prendre pleinement conscience, puisque les joueurs se glissent dans la peau d'un cybercriminel devant réussir à tromper une IA pour lui faire révéler des informations confidentielles, et ce uniquement à partir de prompts. Une tactique qui pourrait facilement s'appliquer à ChatGPT Atlas et aux autres plateformes d'intelligence artificielle…