Pourquoi les géants de la tech interdisent l'IA à leurs employés

Pourquoi les géants de la tech interdisent l'IA à leurs employés

À l'instar de Google, plusieurs géants de la tech interdisent à leurs employés d'utiliser ChatGPT, Bard et autres chatbots par crainte que des données sensibles ne fuitent. Une mesure de sécurité qui devrait amener à s'interroger…

Le déploiement de ChatGPT auprès du grand public et la course à l'IA qui s'en est suivie a bouleversé le monde professionnel. Que ce soit pour les entreprises ou les travailleurs indépendants, beaucoup y voient un moyen de booster leur productivité. On ne compte plus les entreprises qui se lancent dans l'IA et les dispositifs génératifs ou conversationnels, que ce soit pour en proposer ou pour en utiliser. Ces outils d'un nouveau genre commencent même à débarquer dans la fonction publique française !

Pourtant, si elle a bien évolué en quelques mois, l'IA générative n'en est qu'à ses débuts. Et certains géants de la tech se montrent plutôt méfiants envers cette nouvelle technologie… y compris ceux qui la développent ! En effet, ils redoutent que les informations confidentielles fournies à un chatbot comme ChatGPT, Bard ou Bing Chat soient automatiquement "absorbées" par le modèle linguistique, et puissent donc tomber entre les mains de leurs concurrents ou de personnes mal intentionnées. Après Samsung et Apple, c'est au tour de Google, pourtant l'un des principaux participants à la course à l'IA, d'émettre des inquiétudes.

D'après les sources interrogées par Reuters, Alphabet – la maison mère de Google – a récemment mis en garde ses employés au sujet des IA génératives. En effet, la société a demandé à ses employés de ne pas fournir d'informations confidentielles ou sensibles à un chatbot lors de leurs échanges, et ce même s'il s'agit de Bard, sa propre IA ! Le groupe a également interdit à ses développeurs d'utiliser tel quel le code informatique généré par Bard. Faites ce que je dis, pas ce que je fais !

Bard : des mesures de précaution pour les employés de Google

Alphabet justifie cette demande par sa politique habituelle de confidentialité et de protection de l'information, qui est appliquée depuis plusieurs années déjà. Concernant sa recommandation à ses développeurs, l'entreprise a affirmé à Reuters que c'était pour éviter des suggestions de code indésirables. Pourtant, même s'il n'est pas fiable à 100 %, Bard peut tout de mettre être utilisé pour repérer d'éventuelles erreurs de codage. En réalité, il s'agit d'un moyen d'éviter d'éventuelles fuites.

En effet, les informations soumises à ce type d'IA sont "absorbées" par le chatbot et stockées dans la gigantesque base de données qui abreuve le modèle linguistique dernière l'IA générative – GPT-4 pour ChatGPT et Bing AI, et PaLM 2 pour Bard – et sert à l'entrainer grâce au machine learning. Par conséquent, le chatbot peut par la suite les reproduire au cours d'une conversation avec un utilisateur, ce qui peut être particulièrement problématique s'il s'agit de concurrents ou de cybercriminels. Pas étonnant que les autorités européennes ne souhaitent pas voir Bard débarquer sur leur territoire ! Google n'ayant pas montré que Bard respectait les règles imposées par le Règlement général sur la protection des données (RGPD), son déploiement est pour l'instant bloqué.

ChatGPT : Samsung et Apple interdisent l'IA à leurs salariés

D'autres entreprises du même secteur ont déjà averti leurs salariés à propos des IA génératives, voire les ont carrément interdites. C'est notamment le cas d'Amazon, de la Deutsche Bank ou encore de Samsung. En mai dernier, le géant coréen a ainsi prohibé l'utilisation de ces assistants virtuels à ses employés sur les smartphones, les ordinateurs et les tablettes qui officient sur les réseaux internes de la firme à cause de "risques de sécurité", comme le rapportait Bloomberg. Cette décision faisait suite au fait que trois employés avaient eu recours à ChatGPT dans leur travail afin de corriger et d'optimiser du code, mais également pour fournir le résumé d'une réunion.

L'entreprise a donc expliqué dans un mémo interne que "l'intérêt pour les plateformes d'IA générative telles que ChatGPT s'est accru en interne et en externe. Bien que cet intérêt se concentre sur l'utilité et l'efficacité de ces plateformes, les risques de sécurité présentés par l'IA générative suscitent également des inquiétudes croissantes." Résultat des courses : interdiction formelle d'utiliser les IA sous peine de sanctions pouvant aller jusqu'au licenciement. Ce qui est assez ironique étant donné que les smartphones Samsung Galaxy embarquent désormais Bing AI dans SwiftKey, qui est le clavier mobile par défaut des appareils...

Du côté d'Apple, l'entreprise avait elle aussi décidé en mai d'interdire l'utilisation de ChatGPT et des autres services d'IA générative par certains de ses employés, selon un document interne révélé par le Wall Street Journal. La firme de Cupertino craignait qu'elles ne compromettent la confidentialité de ses données stratégiques. L'interdiction concerne également Copilot, l'assistant de Microsoft qui aide les développeurs à générer et à compléter du code informatique dans plusieurs langages de programmation, comme le JavaScript et le Python. Comme pour Samsung, les sanctions disciplinaires en cas de manquement peuvent aller jusqu'au licenciement. Une décision qui n'est guère étonnante au vu de la culture du secret que pratique la Pomme, qui travaillerait elle aussi sur sa propre technologie d'IA générative.

IA : la porte ouverte à la fuite des données confidentielles

Le fait que des géants de la tech comme Google, Samsung et Apple, qui font partie de ceux qui s'y connaissent le mieux en intelligence artificielle, se méfient des chatbots intelligents devrait nous alerter. Pour leurs dirigeants, ces recommandations de sécurité reviennent à admettre à demi-mot les risques et les limites que comportent leurs produits. Et c'est sans compter les alertes répétées des chercheurs, des dirigeants et des personnalités du numérique (voir notre article) ! Matthew Prince, le PDG de Cloudflare, résume parfaitement la chose : pour lui, saisir des informations confidentielles dans des IA génératives revient à "confier à une bande d'étudiants en doctorat tous vos dossiers privés". Et ce n'est pas la faille de sécurité dont avait souffert ChatGPT en mars – toutes les conversations, les données personnelles et les informations de paiement des utilisateurs avaient été mélangées et exposées aux yeux de tous – qui va lui faire dire le contraire !

Pourtant, de nombreux professionnels se servent d'IA génératives comme ChatGPT et ses équivalents sans s'inquiéter des risques en matière de confidentialité. D'après une étude de Fishbowl, un réseau social professionnel, 43 % des individus utilisent un chatbot sans en avertir leur hiérarchie. ! Il va falloir adapter nos habitudes en conséquence !

Autour du même sujet