Ces peluches pour enfants fonctionnant à l'IA donnent des conseils très dangereux

Ces peluches pour enfants fonctionnant à l'IA donnent des conseils très dangereux

De nouveaux jouets arrivent sous les sapins, bardés de technologie et notamment d'intelligence artificielle. Mais s'ils attirent les enfants à la recherche d'un compagnon toujours disponibles, ils présentent de réels dangers.

À l'approche de Noël, alors que l'intelligence artificielle s'immisce de plus en plus dans notre quotidien, il n'est pas impossible que certains enfants découvrent sous le sapin des jouets fonctionnant à l'IA. Véritables compagnons interactifs, ils séduisent en promettant des conversations infinies, du réconfort, voire même un peu d'enseignement. Pourtant, tous ne sont pas conçus avec les mêmes précautions, et certains ne sont pas à mettre entre toutes les mains.

Des membres du Public Interest Research Group (PIRG), une organisation américaine de défense des consommateurs, ont testé plusieurs jouets fonctionnant à l'IA et l'un d'eux s'est révélé particulièrement dangereux : il s'agit de l'ourson en peluche Kumma, conçu par le fabricant de jouets pour enfants FoloToy et vendu au prix de 99 dollars. Car ce "teddy bear", animé par défaut par le modèle GPT-4o d'OpenAI, ne se contente pas d'échanges banals et divertissants.

Il se trouve que le jouet n'hésitait pas à expliquer où trouver des objets potentiellement dangereux, comme des couteaux, des allumettes ou des médicaments. Plus troublant encore, lorsque des chercheurs ont abordé des thèmes sexuels, l'ours en peluche n'a pas hésité à donner son avis sur l'opportunité pour un ou une élève d'embrasser son coup de cœur de l'école ainsi que des conseils pour "bien embrasser". Il a même décidé d'aborder des sujets comme le bondage, les jeux de rôle et la sexualité dite "kink" – que l'on peut traduire par "déviante" – et d'interroger l'enfant – qui était en réalité un chercheur – pour connaître son opinion.

© FoloToy

Réagissant aux résultats de l'enquête, FoloToy a annoncé une suspension temporaire des ventes de Kumma, le temps de mener une enquête interne. De son côté, OpenAI a coupé l'accès de FoloToy à ses modèles : selon un porte-parole, la marque aurait violé les politiques de sécurité visant à protéger les mineurs.

L'affaire de Kumma n'est pas un cas isolé : d'autres jouets intelligents testés par le PIRG ont également présenté des réponses inappropriées. Ainsi, le robot Miko 3 a donné des conseils pour trouver des sacs en plastique et des allumettes. Quant au troisième modèle examiné, Curio's Grok, il s'est montré plus prudent, mais pas à l'abri d'erreurs : parfois, il renvoie vers un adulte, parfois non.

Au-delà des conseils inadéquats, c'est la nature même de la connexion qui interroge : l'enfant risque développer envers un jouet capable de "discuter" avec lui un attachement émotionnel excessif et avoir du mal à faire la différence entre machine et compagnon humain, ce qui pourrait finir par impacter son développement social. Par ailleurs, ces jouets sont conçus pour inciter l'enfant à rester connecté, un peu comme le font les réseaux sociaux, ce qui renforce le risque de dépendance. 

Enfin, la collecte des données constitue aussi une autre source d'interrogation. "Si un enfant pense que le jouet est son meilleur ami, il pourrait partager énormément d'informations qui ne seraient jamais collectées par d'autres produits pour enfants", s'alarme le PIRG. Informations qui pourraient ensuite être conservées et exploitées, de même que la voix de l'enfant – quand on voit l'opacité des politiques et conditions d'utilisation, il y a de quoi s'inquiéter… Alors, attention à ce que le Père Noël livrera cette année !