Bientôt un bouton d'urgence pour désactiver les IA dangereuses
Des gouvernements et des entreprises spécialisées dans l'IA se sont réunis pour mettre au point un développement responsable de la technologie. Ils s'engagent à mettre place d'un bouton pour désactiver instantanément les IA trop dangereuses.
Plus que jamais, avec le boom exponentiel de l'intelligence artificielle, le débat concernant la sécurité d'une telle technologie fait rage. Va-t-on trop vite dans le développement de l'IA ? Est-elle un outil dont les humains peuvent profiter ou est-elle dangereuse ? Risque-t-on, à force de la pousser toujours plus loin, d'obtenir un chatbot à la I, Robot ? Aussi, pour identifier et contenir les dérives liées au déploiement de l'intelligence artificielle dans notre vie quotidienne, l'Union européenne, les gouvernements de dix pays et seize grandes entreprises spécialisées dans l'intelligence artificielle (Amazon, Microsoft, Google, OpenAI, Samsung, Mistral AI, Meta, Anthropic, etc.) se sont réunis lors d'un sommet sur l'IA à Séoul, le Frontier AI Safety Commitments. L'objectif : définir des lignes directrices pour un développement responsable de cette technologie, y compris en prévoyant un "scénario Terminator", où les IA se retourneraient contre leurs créateurs et leurs utilisateurs, comme le rapporte la CNBC. Une initiative qui témoigne de l'inquiétude croissante suscitée par les risques potentiels associés à l'IA.
Sommet sur l'IA : des kill switches pour tout stopper
Dans ce nouvel accord, les entreprises signataires ont pris des dispositions sur la détection des menaces et des mesures de protections contre les risques sociétaux. Elles ont également accepté de publier des cadres de sécurité indiquant comment ils mesureront les défis posés par leurs modèles, tels que la prévention de l'utilisation abusive de la technologie par des acteurs malveillants. Si ce seuil, cette "ligne rouge", est franchi, les risques encourus seront considérés comme intolérables.
Parmi les mesures évoquées, il y a la volonté de mettre en place des "kill switches", un processus qui permettrait de désactiver facilement et rapidement l'activité de toute IA. L'importance d'avoir une sorte de bouton d'urgence pour désactiver les IA n'est pas dénuée de sens, car les entreprises concernées comme OpenAI reconnaissent elles-mêmes ne pas savoir jusqu'où peuvent aller leurs outils et qu'ils comportent des risques.
L'entreprise de Sam Altman par exemple, avait défrayé la Toile avec la rumeur d'une IA nommée Q*, une AGI, (pour Artificial General Intelligence) fonctionnant de manière similaire à un cerveau humain, ce qui lui permettrait, en théorie du moins, d'effectuer les mêmes tâches. On parle d'une IA qui serait capable d'apprendre et de comprendre de plus en plus de choses (voir notre article). "L'AGI s'accompagnerait également d'un risque sérieux de mauvaise utilisation, d'accidents graves et de perturbations sociétales", concède Sam Altman, qui siège désormais à la tête du nouveau comité de sécurité – il y a comme un petit conflit d'intérêts...
De plus, le fait de disposer d'une fonction d'arrêt immédiat offre un niveau de protection supplémentaire, garantissant que toute situation peut être rapidement contrôlée et atténuée. "Ces engagements garantissent que les principales entreprises d'IA du monde feront preuve de transparence et de responsabilité quant à leurs projets de développement d'une IA sûre", a déclaré Rishi Sunak, le Premier ministre du Royaume-Uni, dans un communiqué.
Sommet sur l'IA : des engagements inefficaces ?
Difficile de savoir si cette politique sera réellement efficace, étant donné qu'elle ne définit pas de seuils de risque spécifiques. De plus, les autres entreprises d'IA non présentes ne seront pas soumises à l'engagement. Et, surtout, l'engagement n'est pas contraignant. Reste à voir ce que cela donnera en termes d'engagements concrets, sur le court et sur le long terme.
À la suite de ce sommet, un groupe de participants a rédigé une lettre ouverte critiquant l'absence de réglementation officielle du forum et le rôle prépondérant joué par les entreprises d'IA dans la mise en place de réglementations dans leur propre secteur d'activités. "L'expérience a montré que la meilleure façon de s'attaquer à ces problèmes est de mettre en place des mandats réglementaires exécutoires, et non des mesures d'autorégulation ou volontaires", peut-on lire dans la lettre. Le prochain sommet sur l'IA aura lieu en France, au début de 2025.