En novembre 2024, Anthropic a discrètement publié une spec qui est en train de devenir le USB-C des LLM : le Model Context Protocol. Dix-huit mois plus tard, OpenAI, Google et la quasi-totalité des éditeurs l'ont adopté. Voici ce qu'il faut comprendre.

Le problème que MCP résout

Avant MCP, chaque intégration d'outil à un LLM était du sur-mesure : un plugin ChatGPT différent d'un tool Claude, différent d'une extension Cursor. Pour un éditeur d'outil (Slack, Jira, GitHub), c'était N intégrations à maintenir pour N assistants.

MCP standardise la communication entre un LLM et un serveur d'outils via une API JSON-RPC simple. Résultat : un serveur MCP écrit une fois fonctionne avec Claude, ChatGPT, Gemini et tous les autres clients compatibles.

Comment ça marche concrètement

Trois primitives principales :

  • Tools : fonctions exposées au LLM (exemple : create_issue, search_customer).
  • Resources : données en lecture que le LLM peut consulter (fichiers, documents, entrées de base).
  • Prompts : templates de prompts réutilisables proposés par le serveur au client.

Le client (ex : Claude Desktop) discute avec le serveur via stdio ou SSE. L'échange est entièrement typé via des schémas JSON.

Un exemple minimal en TypeScript

import { McpServer } from '@modelcontextprotocol/sdk/server/mcp.js';
import { StdioServerTransport } from '@modelcontextprotocol/sdk/server/stdio.js';
import { z } from 'zod';

const server = new McpServer({ name: 'sunderdev-tools', version: '1.0.0' });

server.tool(
  'search_projects',
  { query: z.string().describe('Mot-clé de recherche') },
  async ({ query }) => {
    const results = await db.projects.search(query);
    return { content: [{ type: 'text', text: JSON.stringify(results) }] };
  }
);

await server.connect(new StdioServerTransport());

Dix lignes et Claude peut désormais interroger votre base projets en langage naturel.

L'écosystème en 2026

Plus de 2000 serveurs MCP open source sont recensés aujourd'hui. Parmi les incontournables :

  • GitHub MCP : gestion d'issues, PR, branches directement depuis Claude.
  • Stripe MCP : créer des sessions, lire des clients, pousser des webhooks.
  • Slack MCP : lire et envoyer des messages dans vos canaux.
  • Filesystem MCP : donner accès local au LLM avec granularité fine.

Pourquoi ça change tout

MCP est à l'IA ce que REST a été au web : une abstraction qui découple les consommateurs des fournisseurs. En pratique, ça veut dire :

  • Vous pouvez écrire un serveur MCP pour votre outil interne et le brancher à n'importe quel LLM.
  • Vous pouvez changer de LLM sans refaire vos intégrations.
  • Vous pouvez mutualiser l'écosystème open source (2000+ serveurs maintenus par la communauté).

Spec officielle sur modelcontextprotocol.io. Le SDK officiel est disponible en Python et TypeScript.

Conclusion

Si vous construisez un produit SaaS en 2026 et que vous ne pensez pas à exposer un serveur MCP, vous passez à côté d'un levier de distribution majeur. Vos clients veulent pouvoir parler à vos données depuis Claude, depuis ChatGPT, depuis leurs IDE. MCP est la clé.

Besoin d'un serveur MCP sur-mesure pour votre SaaS ? Parlons-en.