Qu'est-ce que le MCP (Model Context Protocol) ?
Le MCP (Model Context Protocol) est un protocole open-source créé par Anthropic qui standardise la connexion entre les LLM et les sources de données ou outils externes. Il joue pour l'IA le rôle que l'USB a joué pour les périphériques : une interface universelle.
Le MCP (Model Context Protocol) est un protocole de communication open-source, publié par Anthropic en novembre 2024, qui définit une interface standardisée pour connecter les modèles de langage (LLM) à des sources de données et des outils externes. Avant MCP, chaque intégration entre un LLM et un outil (base de données, API, système de fichiers, application SaaS) nécessitait un connecteur spécifique. MCP propose une convention unique que les deux parties — le LLM et l'outil — peuvent implémenter une fois pour toutes.
Le problème que MCP résout
Un LLM seul est puissant pour le langage, mais isolé. Pour être utile en entreprise, il doit accéder à des données internes (CRM, documentation, bases de données) et déclencher des actions (créer un ticket, envoyer un email, modifier un fichier). Sans standard, chaque fournisseur de LLM développe ses propres conventions d'intégration, et chaque outil doit implémenter autant de connecteurs qu'il y a de LLM à supporter.
C'est le problème classique du M x N : M modèles fois N outils = M x N intégrations à maintenir. MCP réduit cette complexité à M + N : chaque modèle implémente le protocole MCP (côté client), chaque outil implémente le protocole MCP (côté serveur), et tous deviennent interopérables.
Architecture du protocole
MCP repose sur une architecture client-serveur :
Le MCP Host est l'application qui utilise le LLM (un IDE, un chatbot, un agent). Il intègre un client MCP qui sait communiquer avec les serveurs.
Le MCP Server est un programme léger qui expose les capacités d'un outil ou d'une source de données. Il déclare ce qu'il sait faire via trois primitives :
- Tools : des fonctions que le LLM peut appeler (ex : "rechercher dans la base de données", "créer un ticket Jira", "lire un fichier"). C'est la primitive la plus utilisée.
- Resources : des données que le LLM peut consulter (ex : contenu d'un fichier, résultat d'une requête SQL). Les resources sont l'équivalent d'un endpoint GET en REST.
- Prompts : des templates d'instructions prédéfinis que le serveur propose au LLM pour des tâches spécifiques.
La communication entre client et serveur se fait via JSON-RPC 2.0, sur des transports variés : stdio (processus local), HTTP avec Server-Sent Events, ou tout autre transport supportant des messages bidirectionnels.
Adoption et écosystème
L'adoption de MCP a été rapide. Quelques mois après sa publication, le protocole est supporté nativement par Claude Desktop, Cursor, Windsurf, Zed, Sourcegraph et plusieurs autres outils. Des centaines de serveurs MCP communautaires sont disponibles sur GitHub, couvrant des intégrations avec Slack, GitHub, PostgreSQL, Google Drive, Notion, Jira, et bien d'autres.
OpenAI a annoncé le support de MCP dans ses produits en mars 2025, renforçant sa position comme standard émergent de l'industrie. Google DeepMind et d'autres acteurs ont également signalé leur intérêt.
MCP et l'IA agentique
MCP est un catalyseur direct de l'IA agentique. Un agent IA qui doit accomplir une tâche complexe a besoin d'interagir avec de multiples outils : lire des documents, interroger des API, exécuter du code, modifier des fichiers. Sans MCP, chaque intégration est un développement spécifique. Avec MCP, l'agent peut se connecter dynamiquement à tout outil qui expose un serveur MCP.
Cette interopérabilité est particulièrement précieuse dans les architectures multi-agents, où chaque agent spécialisé peut avoir accès à un ensemble différent d'outils MCP selon son rôle.
Développer un serveur MCP
Créer un serveur MCP est relativement accessible. Les SDK officiels existent en TypeScript et Python, et la communauté a développé des SDK pour Kotlin, Go, Rust et d'autres langages. Un serveur minimal qui expose une ou deux fonctions peut être écrit en quelques dizaines de lignes.
L'effort principal réside dans la conception des tools : choisir le bon niveau de granularité, rédiger des descriptions claires (c'est le LLM qui décide quand appeler un tool en se basant sur sa description), et gérer les erreurs proprement.
Sécurité et gouvernance
MCP soulève des questions de sécurité importantes. Un serveur MCP donne au LLM la capacité d'agir sur des systèmes réels. Les bonnes pratiques incluent :
- Principe du moindre privilège. Un serveur MCP ne devrait exposer que les capacités strictement nécessaires.
- Validation des entrées. Les paramètres envoyés par le LLM doivent être validés côté serveur — un LLM peut envoyer des requêtes malformées ou exploitées via une injection de prompt.
- Audit et logging. Tracer tous les appels de tools pour la gouvernance et le débogage.
- Approbation humaine. Pour les actions critiques (suppression de données, envoi d'emails, transactions financières), implémenter un mécanisme de confirmation humaine.
Limites actuelles
MCP est encore un protocole jeune. La spécification évolue rapidement, la gestion de l'authentification entre clients et serveurs distants fait l'objet de travaux actifs (OAuth 2.0 et transport HTTP streamable ajoutés en 2025), et l'écosystème de serveurs communautaires varie en qualité et en maturité. Le protocole gagne en robustesse à chaque itération, mais les équipes qui l'adoptent doivent accepter un certain niveau de mouvement.
Fait intéressant
L'analogie officielle d'Anthropic pour expliquer MCP est celle du port USB : avant l'USB, chaque périphérique avait son propre connecteur. L'USB a créé un standard universel. MCP vise le même résultat pour l'IA — un protocole unique pour connecter n'importe quel LLM à n'importe quel outil. Le fait que des concurrents directs d'Anthropic (OpenAI, Google) adoptent le protocole renforce cette ambition de standard industriel.
Ces formations pourraient aussi vous intéresser
Prêt à accélérer votre Transformation ?
Nos experts vous accompagnent à chaque étape
de votre parcours Data & IA. Discutons ensemble de vos enjeux et objectifs.