MCP, le standard ouvert d'Anthropic qui permet à Claude d'accéder à vos outils (base de données, CRM, Figma, Webflow) sans intégration sur mesure. Guide complet 2026.
MCP (Model Context Protocol) est le standard ouvert lancé par Anthropic fin 2024 qui permet à un modèle d'IA comme Claude d'accéder en direct à vos outils — base de données, CRM, gestionnaire de tâches, Figma, Webflow — sans passer par une intégration sur mesure à chaque fois. Concrètement : vous installez un « serveur MCP » pour chaque outil, Claude s'y connecte, et vous lui parlez normalement pendant qu'il lit, écrit et orchestre. En 2026 le registry officiel compte plus de 9 400 serveurs disponibles et le protocole est supporté par OpenAI, Google et la majorité des IDE.
Si vous avez essayé l'IA en 2023-2024, vous avez probablement copié-collé du contexte dans ChatGPT, exporté un CSV, repris à la main. MCP supprime cette friction. Ce guide explique ce qu'est MCP, à quoi ça sert vraiment, comment l'installer, et les pièges de sécurité à éviter. À la fin, vous saurez si MCP a sa place dans votre stack et par quel serveur commencer.
MCP en 2 minutes : la définition qui marche
MCP, pour Model Context Protocol, est un protocole de communication entre un modèle de langage (le « client » : Claude Desktop, Cursor, Claude Code, etc.) et un outil externe (le « serveur MCP » : Notion, Linear, Supabase, Webflow…). Le serveur expose une liste d'actions disponibles — « lire un fichier », « créer une issue », « requêter la DB » — et le client utilise ces actions à la demande de l'utilisateur.
L'analogie la plus parlante : si l'API REST est l'USB d'Internet, MCP est l'USB des modèles d'IA. Un serveur Notion MCP fonctionnera avec Claude, mais aussi avec ChatGPT (qui supporte MCP depuis mars 2025) ou n'importe quel autre client compatible. Une seule intégration, plusieurs IA.
Trois caractéristiques techniques à retenir :
- Open source : spec publique sur modelcontextprotocol.io, SDK officiels en Python, TypeScript, Java, Kotlin.
- Stateless par défaut : chaque appel est indépendant, ce qui facilite le scaling et la sécurité.
- Transports multiples : stdio (local), HTTP/SSE (distant), WebSocket. Vous choisissez selon votre déploiement.
À quoi sert MCP en pratique ? 4 cas d'usage concrets
MCP n'est pas un gadget : il résout des problèmes qui coûtaient des heures en 2023.
1. Connecter Claude à votre base de données. Avec le serveur Supabase MCP, vous demandez à Claude « quelles sont mes 10 dernières inscriptions ce mois-ci » et il interroge votre PostgreSQL directement, en respectant vos policies RLS. Plus besoin de coder un endpoint dédié pour chaque question. Détails dans notre guide Supabase MCP : le duo parfait pour vos apps.
2. Orchestrer des workflows complexes via n8n. Le MCP n8n permet à Claude de déclencher un workflow d'automatisation existant, ou d'en créer un à la volée. « Quand un lead Stripe arrive, qualifie-le, mets-le dans Notion, envoie un Slack à l'équipe. » Le pattern est documenté pas à pas dans MCP n8n : guide ultime pour connecter Claude à vos workflows.
3. Lire et écrire dans Figma ou Webflow depuis l'IDE. Le serveur Figma MCP donne à Cursor ou Claude Code l'accès aux fichiers de design, ce qui permet de générer du code aligné sur les composants — pas du « code basé sur un screenshot ». Côté CMS, le MCP Webflow ouvre la lecture/écriture des collections, des pages, des assets. On en parle dans Figma MCP : connectez Figma à votre API et votre codebase et MCP Webflow : connectez vos bases de données et vos pages.
4. Brancher l'IA aux données publiques. Le serveur MCP data.gouv expose les jeux de données officiels français à Claude — utile pour des chatbots métier qui doivent répondre avec des sources publiques fiables. Le guide complet est dans MCP data.gouv : guide gratuit pour l'IA et la data publique.
Architecture MCP : client, serveur, transport
Pour comprendre ce que vous installez, gardez trois rôles en tête.
Le client MCP est l'application qui pilote la conversation : Claude Desktop, ChatGPT Desktop, Cursor, Claude Code, ou un agent custom que vous codez. Il parle à l'utilisateur (vous) et au serveur (l'outil).
Le serveur MCP expose une liste capabilités (tools, resources, prompts) que le client peut invoquer. Un serveur Notion expose « créer une page », « chercher dans la base », etc. Un serveur Supabase expose « requêter table », « exécuter SQL ».
Le transport est le canal de communication : stdio si le serveur tourne sur votre machine (le plus courant en 2026), HTTP/SSE ou WebSocket si le serveur est distant (utile pour partager une stack équipe).
En pratique, vous ouvrez votre client (Claude Desktop par exemple), vous éditez son fichier de configuration pour pointer vers un ou plusieurs serveurs MCP, et vous redémarrez. Les outils apparaissent automatiquement dans l'interface. Le client demande votre autorisation avant chaque action sensible — c'est important pour la sécurité (voir plus bas).
L'écosystème MCP fin 2026 : où en est-on ?
Quelques chiffres pour situer :
- 9 400+ serveurs publics répertoriés sur le registry officiel, contre 1 200 fin 2024.
- 78 % des équipes IA enterprise utilisent au moins un MCP server en production (étude Anthropic + Forrester, Q1 2026).
- 170 000+ recherches mensuelles sur « mcp » et variantes aux États-Unis (source : Ahrefs avril 2026).
- Support officiel par Anthropic (Claude), OpenAI (ChatGPT depuis mars 2025), Google (Gemini en preview), et les IDE majeurs (Cursor, Windsurf, Claude Code, Continue.dev, Zed).
Trois sources fiables à connaître pour trouver un serveur ou en publier un :
- Le repo officiel modelcontextprotocol/servers avec les serveurs de référence (filesystem, github, postgres…).
- La liste awesome-mcp-servers qui agrège les meilleurs serveurs communautaires.
- Le registry public hébergé sur modelcontextprotocol.io (interface de recherche + métadonnées).
Les serveurs MCP les plus utiles en 2026
Voici la sélection que l'équipe Scroll déploie le plus fréquemment chez ses clients en 2026.
Pour la base de données : Supabase MCP. Indispensable si vous avez un backend PostgreSQL. Lecture/écriture, exécution SQL contrôlée, respect des RLS. Notre guide pratique.
Pour l'automatisation : n8n MCP. Permet à Claude d'orchestrer des workflows multi-étapes. Setup et patterns en production.
Pour le design : Figma MCP. Cursor ou Claude Code génèrent du code aligné sur les composants Figma réels. Connecter Figma à votre codebase.
Pour le CMS : Webflow MCP. Lecture/écriture sur les collections, les pages, les assets — utile pour piloter un blog ou un site catalogue en équipe. Tour d'horizon.
Pour la data publique française : data.gouv MCP. Source de vérité officielle, pratique pour des chatbots métier. Mode d'emploi.
Pour l'IDE : Cursor + Supabase MCP. Stack favorite des devs IA en 2026 — Cursor pilote le code, Supabase MCP donne accès à la donnée réelle. Notre setup pas à pas.
Limites et points d'attention sécurité
MCP n'est pas magique. Trois pièges à garder en tête avant de déployer en production.
1. La sécurité des permissions. Un serveur MCP donne à un modèle d'IA un accès direct à un outil. Si le serveur est mal configuré, l'IA peut lire des données qu'elle ne devrait pas voir, ou pire, en écrire/supprimer. Toujours : limiter le scope (read-only quand possible), exécuter le serveur avec un compte de service à droits minimaux, et activer les confirmations d'action côté client pour les opérations destructrices.
2. Le coût en tokens. Chaque action MCP fait remonter du contexte au modèle. Sur une longue conversation avec beaucoup de tools, la facture token grimpe vite. À surveiller : le nombre de tools exposés simultanément, la verbosité des réponses, et la stratégie de cache (Claude 4 et au-delà supportent le prompt caching natif, à activer).
3. La fiabilité des serveurs communautaires. 9 400 serveurs, c'est beaucoup. Tous ne sont pas maintenus, pas tous sécurisés. Avant d'en installer un : vérifier l'auteur, le nombre de stars GitHub, la date du dernier commit, et lire le code si possible. Les serveurs officiels (publiés par les éditeurs eux-mêmes) sont à privilégier.
MCP vs alternatives : function calling, LangChain, agents propriétaires
MCP n'est pas seul sur le marché. Voici comment il se positionne en 2026.
Le function calling natif (OpenAI, Anthropic) permet déjà à un modèle d'appeler des fonctions. MCP standardise la couche au-dessus : vous écrivez une fois le serveur, il marche avec tous les clients compatibles. Sans MCP, vous récrivez l'intégration pour chaque modèle/IDE.
Les frameworks comme LangChain ou LlamaIndex sont des bibliothèques côté client (Python/TS) pour orchestrer plusieurs outils. Compatibles avec MCP : vous pouvez utiliser un serveur MCP comme outil dans une chaîne LangChain. Complémentaires plutôt qu'opposés.
Les agents propriétaires de Salesforce, ServiceNow, etc. restent isolés dans leurs écosystèmes : utiles si vous êtes 100 % Salesforce, limitants si votre stack est hétérogène.
Notre recommandation chez Scroll en 2026 : par défaut MCP, surtout si vous avez plusieurs outils à connecter à plusieurs modèles. Function calling pur seulement si vous avez 1 modèle + 1 outil. Frameworks par-dessus si votre logique d'agent est complexe (mémoire longue, planification multi-étapes).
Intégrer MCP à votre stack : par où commencer
Si vous découvrez MCP, voici l'ordre que nous recommandons pour ne pas se perdre.
Étape 1 : installer Claude Desktop ou Cursor et activer un serveur MCP de référence — par exemple filesystem (accès aux fichiers locaux) ou brave-search (recherche web). Manipuler 1-2 jours pour comprendre le rythme.
Étape 2 : connecter votre outil le plus utilisé. Notion, Linear, Slack, Supabase, Webflow… choisir celui où vous passez le plus de temps. Le gain de productivité y est immédiat.
Étape 3 : orchestrer. Combiner 2-3 serveurs pour des workflows transverses (lead Stripe → enrichissement → Notion → Slack). Voir notre guide n8n+MCP pour la partie automation.
Étape 4 : produire des serveurs custom. Une fois familier, vous pouvez écrire vos propres serveurs MCP pour vos outils internes (CRM maison, base métier). Le SDK Python/TS est très abordable : 50-100 lignes suffisent pour un serveur basique.
FAQ MCP : les questions qu'on nous pose le plus
Voir la section FAQ ci-dessous pour les réponses synthétiques aux questions les plus fréquentes : différence MCP / API, sécurité, coûts, alternatives open-source, support des principaux modèles.
Lancer un projet IA avec MCP : l'approche Scroll
Vous avez identifié un cas d'usage MCP — connecter Claude à votre CRM, automatiser un onboarding, brancher l'IA à votre base métier — mais vous ne savez pas par où commencer ? L'équipe Scroll conçoit et déploie des stacks Claude + MCP en production depuis 2024, du POC à l'enterprise. On audite votre stack, on choisit les serveurs MCP pertinents (officiels ou custom), on sécurise les permissions, et on forme votre équipe sur l'usage quotidien.
Si vous voulez en parler concrètement, le diagnostic Scroll est gratuit et sous 48 heures : on vous dit si MCP a un vrai ROI dans votre cas, ou si une autre approche (function calling pur, agent custom) sera plus pertinente.


