MCP : comment l'IA va utiliser vos applications à votre place
Avec le développement du MCP, un connecteur universel, les IA vont pouvoir utiliser nos applications à notre place, sans que nous effectuions une quelconque manipulation. Google nous en fait la démonstration avec les AppFunctions.
En quelques années, les IA comme ChatGPT, Gemini ou Copilot sont passées de chatbots conversationnels à des assistants de travail, puis à des interfaces semi-intelligentes intégrées dans de nombreux outils. Les géants de la tech travaillent d'arrache-pied pour que leurs IA génératives puissent devenir des IA agentiques, capables d'effectuer elles-mêmes les actions et les manipulations sur l'appareil à partir d'une simple demande de l'utilisateur. Et, pour cela, ils peuvent compter sur l'arrivée du Model Context Protocol, plus communément appelé MCP.
Le MCP est un protocole lancé par Anthropic, le créateur de l'IA Claude, fin 2024 et aujourd'hui géré par la Linux Foundation. Il s'agit d'un standard ouvert qui permet à une intelligence artificielle de se connecter de manière structurée et sécurisée à des applications, des bases de données ou des fichiers externes, en servant d'interface universelle. Pour faire une analogie, il est pour les IA ce que le port USB-C est aux différents appareils électroniques. Google a profité de la Samsung Galaxy Unpacked pour faire la démonstration d'un Gemini capable d'utiliser seul des applications sur Android grâce à ce protocole, par le biais des AppFunctions.
MCP : un connecteur universel entre l'IA et les données
Jusqu'à récemment, une IA comme ChatGPT ou Claude était capable d'analyser du texte ou de générer des réponses, mais elle ne pouvait pas interagir directement avec les fichiers, les applications ou les données stockées sur un ordinateur ou dans des services en ligne sans de nombreuses manipulations techniques en amont. Chaque application ou service nécessitait une connexion spécifique, un "connecteur" propre, ce qui signifiait beaucoup de travail de développement, d'essais et d'erreurs, à cause de cette absence d'uniformité.
Le MCP change la donne en introduisant une interface standardisée, pensée comme un langage commun ou un "câble universel" entre une IA et un grand nombre de services externes. Dans cette architecture, on distingue deux parties principales : le client, c'est-à-dire l'IA elle-même, et le serveur MCP, un petit composant logiciel qui sert d'intermédiaire avec les outils, les fichiers ou les bases de données que l'on utilise.
Grâce à son interface standardisée, le MCP permet à tout agent de naviguer dans les systèmes de fichiers, d'interroger des bases de données ou de déclencher des API sans que le développeur ait besoin de créer des intégrations sur mesure pour chaque combinaison d'IA et d'application. Si l'utilisateur décide de changer de modèle d'IA, les serveurs MCP restent compatibles, ce qui évite de repartir de zéro à chaque fois que l'on souhaite connecter un nouvel outil ou service. Cela signifie plus de dépendance au bon vouloir d'une seule entreprise !
Le MCP permet également une interaction beaucoup plus fluide et riche entre l'IA et le système. Jusqu'à présent, une IA fonctionnait surtout comme une interface de discussion. On lui donnait un texte, elle répondait. Si l'on voulait qu'elle travaille sur un document précis, il fallait copier le contenu et le coller dans la fenêtre de conversation. Même chose si l'on voulait qu'elle consulte des données stockées dans un logiciel, il fallait exporter ces données et les lui transmettre. Chaque action impliquait donc une manipulation humaine et de nombreux allers-retours. Pour faire simple, l'IA restait séparée du reste de votre environnement numérique. Avec le MCP, l'IA est capable de dialoguer directement avec les applications ou les fichiers, par l'intermédiaire d'un standard commun.
Enfin, le MCP constitue une amélioration en termes de sécurité et de confidentialité. Comme le serveur MCP peut être hébergé localement sur l'appareil de l'utilisateur, il est possible de donner accès à ses données à une IA sans qu'elles quittent le disque dur ou ne soient envoyées dans le cloud. L'utilisateur a totalement le contrôle de ces accès, ce qui permet à une IA d'accéder à des informations sensibles sans compromettre leur confidentialité.
AppFunctions de Google : Gemini devient capable de commander un repas
Le MCP intéresse grandement plusieurs acteurs majeurs du secteur de l'intelligence artificielle, comme OpenAI, Apple et Microsoft. D'ailleurs, à l'occasion de la Samsung Galaxy Unpacked, le constructeur coréen et Google ont dévoilé les AppFunctions sur Android 16, qui permettent tout simplement à Gemini de piloter les applications mobiles grâce au MCP. L'IA devient un véritable agent capable de réserver un Uber, de trier les photos ou d'envoyer un message Slack parce qu'il "comprend" comment fonctionnent ces applications grâce à ce langage commun.
Your "usual" is now just a tap away. Starting as a beta feature, Gemini can assist you with tasks across select rideshare and food apps. Just ask Gemini to handle your grocery cart, food delivery, or ride home. Gemini does the work, but youre in control pic.twitter.com/fjfsDXDx7m
— Android (@Android) February 25, 2026
Prenons un exemple très simple. Avec AppFunctions, l'utilisateur peut demander à Gemini de lire le contenu d'un groupe de discussion familial, et ensuite commander à manger en tenant compte des préférences de chacun dans la conversation. L'IA prend alors le contrôle du smartphone pour effectuer les commandes. L'utilisateur n'a ensuite plus qu'à valider le paiement à la fin du processus.
Toutes ces tâches sont effectuées en arrière-plan, permettant ainsi au propriétaire d'utiliser son smartphone. Ce dernier pourra d'ailleurs suivre en direct la progression de ces actions via une fenêtre visuelle, tout arrêter ou reprendre le contrôle si besoin. Une fois que l'IA aura terminé, l'utilisateur sera averti avec une notification et il n'aura plus qu'à valider s'il est satisfait. Google précise que son IA n'accède qu'à certaines applications, sur une fenêtre virtuelle, mais pas au reste du smartphone.
La fonction, en bêta, est pour l'instant testée sur les nouveaux Galaxy S26, les Pixel 10 et 10 Pro aux États-Unis et en Corée du Sud. Attention, seule une poignée d'applications est compatible pour le moment.
