Intégration MCP pour Claude, Cursor et ChatGPT

Connectez vos données de visibilité IA directement à Claude Desktop, Cursor, ChatGPT et tout agent compatible MCP. Demandez à votre IA ce que les LLMs disent de vous, sortez vos opportunités de backlinks, modérez vos concurrents depuis votre chat, pas depuis un dashboard.

Curieux de savoir si l'IA mentionne votre marque ?

Lancez un scan gratuit et voyez où vous en êtes sur ChatGPT.

Scan IA gratuit

Points clés

  • Serveur MCP natif qui expose vos données de visibilité IA à tout client compatible MCP : Claude Desktop, Cursor, ChatGPT, Claude Code et autres.
  • 7 outils disponibles dès le premier jour : lister les projets, lister les prompts avec stats de mention, lister les sources citées par les LLMs (visibles + cachées + fan-out), lister les opportunités de backlinks avec offres marketplace, lister les concurrents, lister les sources d'un concurrent, confirmer ou rejeter les concurrents en masse.
  • Architecture bring-your-own-agent : la donnée reste chez Mentionable, le raisonnement se fait dans votre IA. Vous posez une question à Claude, Claude récupère les données nécessaires via MCP, vous répond en contexte. Pas de copier-coller, pas de changement d'onglet.
  • Clés API par utilisateur, rattachées à votre appartenance tenant. Les clés héritent de vos permissions sur les projets, peuvent être restreintes à un sous-ensemble de projets, et sont révocables en un clic. Les opérations d'écriture (modération de concurrents) respectent votre rôle.
  • Le seul outil de tracking de visibilité IA avec un serveur MCP public. Otterly, Peec AI, Profound et les autres concurrents vous imposent encore de lire des dashboards. Mentionable rend votre donnée appelable depuis l'outil que vous utilisez déjà.

Vous ouvrez Claude Desktop. Vous demandez : « Comment ma visibilité IA a-t-elle évolué cette semaine, et quelles sources dois-je démarcher ? ». Claude récupère les données de Mentionable via MCP, regarde vos prompts trackés, identifie les domaines qui citent vos deux principaux concurrents mais pas vous, les classe par impact score et prix marketplace, et vous rend une shortlist d'outreach en quatre lignes.

Aucun changement d'onglet. Aucun copier-coller de captures d'écran de dashboard dans un chat. Aucun « attendez, je vérifie ça dans Mentionable et je reviens ». Votre IA a la donnée, parce que la donnée va là où l'IA vit.

Qu'est-ce que MCP et pourquoi c'est dans un produit GEO

Le Model Context Protocol est un standard ouvert introduit par Anthropic fin 2024 qui permet à un agent IA d'appeler des outils et des données externes via une interface commune. Un client (Claude Desktop, Cursor, Claude Code, ChatGPT avec connecteurs custom, Zed) implémente le côté client. Un éditeur (Mentionable, dans ce cas) implémente un serveur qui expose des outils et des ressources. L'agent découvre les outils, les invoque quand c'est pertinent, lit la réponse, et intègre la donnée dans sa réponse finale.

Pour un tracker de visibilité IA, ce n'est pas un bonus. C'est le canal de distribution naturel.

La plupart des outils marketing construits la dernière décennie partaient du principe que le dashboard était le produit. Vous payez, vous vous connectez, vous lisez des charts, vous exportez des CSV. Ce modèle avait du sens quand les marketeurs lisaient leurs rapports le matin et prenaient des décisions dans une UI.

Ce modèle n'a plus de sens quand l'outil quotidien du marketeur est un agent IA. Un consultant qui rédige un article dans Cursor, un opérateur d'agence qui gère 5 projets clients via Claude Desktop, un fondateur qui demande à ChatGPT de résumer ses métriques hebdo : ils ne veulent pas quitter leur IA pour vérifier un dashboard. Ils veulent la réponse du dashboard dans l'IA.

MCP est le protocole qui rend ça possible. Le serveur Mentionable le rend concret.

Les 7 outils, et ce qu'ils débloquent

Le serveur MCP expose 7 outils au lancement, alignés sur les données à plus fort signal que Mentionable trace déjà.

list_projects

Les projets de votre espace, avec scoping tenant automatique. Le point d'entrée de tout workflow d'agent. Tous les autres outils prennent un projectId, donc c'est le premier appel que l'agent fait quand vous demandez « que se passe-t-il sur mes marques ».

list_prompts

Chaque prompt tracké d'un projet, avec ses stats complètes : nombre total de runs, taux de mention, visibilité par LLM (ChatGPT, Perplexity, Gemini, Grok, Copilot, Google AI Mode, Google AI Overview), dernier résultat par LLM avec position de marque et sentiment. Un agent peut répondre à « sur quels prompts je perds de la visibilité ce mois-ci » en un seul appel.

list_llm_sources

L'outil le plus précieux pour la stratégie de contenu. Retourne chaque domaine qui est apparu dans les réponses LLM pour vos prompts trackés, ventilé en trois types d'apparition :

  • Citations visibles : le LLM a cité ce domaine dans sa réponse, l'utilisateur a vu le lien
  • Citations cachées : le LLM a lu ce domaine dans son contexte mais ne l'a pas cité dans la réponse finale (disponible sur les LLMs qui exposent ce signal, typiquement Perplexity et Gemini)
  • Fan-out searches : le LLM a lancé une recherche en arrière-plan et a trouvé ce domaine dans les résultats, qu'il l'ait cité ou pas

La donnée fan-out est une mine d'or GEO. Elle vous dit quels domaines le LLM considère quand il répond à des prompts de votre niche, même si aucune citation n'a jamais été montrée à l'utilisateur. Ces domaines sont la vraie carte d'influence. Un agent peut demander à l'outil les domaines avec un fort fan-out count mais un faible nombre de citations visibles, et vous voyez immédiatement les sites que les LLMs consultent sans les créditer : des candidats prioritaires pour la collaboration de contenu ou le backlink.

list_backlink_opportunities

Les domaines où placer un backlink peut booster votre visibilité GEO, classés par un score d'impact composite qui pondère le nombre de citations, la fréquence de fan-out, le nombre de LLMs distincts qui citent le domaine, et le nombre de vos prompts trackés où le domaine apparaît. Chaque domaine vient avec ses offres marketplace actuelles (prix, provider) issues de la donnée backlink agrégée de Mentionable. Un agent peut répondre à « quelle est ma meilleure opportunité de backlink en dessous de 500 € » en un seul appel d'outil et retourner une shortlist triée, pas un mur de bruit.

list_competitors

Les concurrents trackés sur un projet, avec totaux de mentions agrégés, Share of Voice, présence par LLM, et statut (confirmé, suggéré, rejeté). La base pour toute conversation d'intelligence concurrentielle avec votre IA.

list_competitor_sources

L'endpoint d'outreach le plus utile. Étant donné un concurrent spécifique, l'outil retourne chaque domaine où ce concurrent est cité, avec nombre de mentions, LLMs, URLs top et contexte sample de la réponse LLM. Si votre concurrent est cité 12 fois sur un site de review spécifique et que vous n'y êtes pas, ce site est une cible d'outreach directe. Un agent peut préparer une liste d'outreach concurrentielle complète en un seul prompt.

bulk_update_competitor_status

L'outil d'écriture. Accepte jusqu'à 50 mises à jour de concurrents en un appel, chacune CONFIRMED, SUGGESTED (en attente) ou REJECTED. Un agent peut exécuter le workflow opérationnel courant entièrement depuis le chat : « liste les 12 suggestions de concurrents détectées la semaine dernière, garde ces 8 comme vrais concurrents, rejette ces 4 comme bruit ». Un appel, résultats atomiques, gestion d'erreur par item quand un ID est invalide.

Des workflows réels, pas des démos

La valeur de MCP se révèle dans des workflows spécifiques qui compressent du travail manuel multi-étapes en une seule conversation.

Briefs de contenu depuis la donnée de citation IA

Vous demandez à Claude : « Rédige un brief de contenu pour le prompt « best gym management software ». Utilise les 5 sources les plus citées comme matériel de référence et explique pourquoi chacune ranke. »

Claude appelle list_llm_sources filtré sur ce prompt, récupère les 5 domaines top avec leurs fan-out queries et URLs sample, lit les titres et la classification seenAs, et rédige un brief dont la structure reflète ce que les LLMs valorisent déjà. Votre brief n'est pas de la spéculation. Il est dérivé de vrais signaux de citation.

Listes d'outreach sans tableur

Vous demandez à ChatGPT : « Trouve-moi 15 cibles d'outreach pour ce mois. Je veux des domaines qui citent au moins deux de mes trois principaux concurrents mais qui ne nous ont jamais cités. »

ChatGPT appelle list_competitor_sources sur chacun de vos trois concurrents top, intersecte les listes de domaines, compare avec list_llm_sources pour votre propre empreinte de citation, retire les domaines où vous apparaissez déjà, et retourne une liste classée avec les counts de citation des concurrents et votre score d'absence actuel. La version manuelle de ce workflow prend 90 minutes de tableur.

Triage opérationnel en une conversation

Vous demandez à Claude Desktop : « Montre-moi les suggestions de concurrents détectées les 14 derniers jours. Je vais passer chacune en revue et confirmer ou rejeter. »

Claude appelle list_competitors filtré sur le statut SUGGESTED créés récemment, les présente avec contexte et nombre de mentions, vous approuvez ou rejetez chacun depuis le chat, Claude appelle bulk_update_competitor_status une fois avec le batch complet. Un triage qui prenait 20 minutes de clics dans l'app, fait en une conversation de deux minutes.

Un modèle de sécurité que vous pouvez raisonner

Un seul principe : une clé API ne peut jamais accorder plus d'accès que l'utilisateur n'en a lui-même.

Les clés sont rattachées à votre TenantMember (votre paire user-tenant). Si vous appartenez à deux espaces, chaque espace a son propre jeu de vos clés. Vous créez une clé dans les paramètres de l'espace sous l'onglet Intégrations, vous lui donnez un nom, vous la restreignez optionnellement à des projets spécifiques dans votre scope, vous copiez le plaintext une seule fois (affiché une seule fois), et vous configurez votre client IA.

À chaque appel, le serveur résout les permissions effectives en intersectant vos permissions de membership courantes avec les restrictions optionnelles de la clé. Si vous êtes retiré de l'espace plus tard, vos clés cessent de fonctionner immédiatement au prochain appel. Si votre rôle est dégradé en lecture seule (customer), vos clés se mettent à refuser les opérations d'écriture immédiatement. Rien n'est mis en cache, pas de permission figée.

Le plaintext n'est jamais stocké. Le serveur stocke un hash SHA-256 de la clé et un préfixe visible pour l'identification dans l'UI. La révocation se fait en un clic et prend effet au prochain appel.

Les rate limits sont appliqués par clé via une fenêtre glissante : 100 requêtes par minute par défaut, large pour un trafic d'agent IA normal.

Setup en moins de 60 secondes

Pour Claude Desktop, ajoutez le serveur à votre configuration :

{
  "mcpServers": {
    "mentionable": {
      "url": "https://mentionable.ai/api/mcp",
      "headers": {
        "Authorization": "Bearer mnt_sk_VOTRE_CLE"
      }
    }
  }
}

Pour Cursor, le format est similaire. Pour Claude Code, utilisez la CLI pour enregistrer le serveur. Pour ChatGPT, ajoutez Mentionable comme custom connector en utilisant la même URL et le même Bearer token.

Créez une clé dans Mentionable → Paramètres → Intégrations → Clés API, collez-la dans la config de votre client, redémarrez le client, et votre prochaine conversation Claude peut appeler vos données Mentionable.

Pourquoi aucun autre tracker de visibilité IA n'offre ça

La réponse courte : parce que construire correctement un serveur MCP suppose un contrat d'outils stable, une authentification propre par utilisateur, des permissions qui connaissent le membership, et un modèle de données qui vaut le coup d'être interrogé. La plupart des outils de visibilité IA sont des coquilles de dashboard posées sur du scraping. Ils n'ont pas de donnée normalisée et API-friendly dessous.

Mentionable a eu un modèle de données multi-tenant propre et une couche d'auth dès le premier jour, parce que l'app elle-même est multi-utilisateurs. Ajouter MCP a été une extension naturelle, pas un rétrofit.

Otterly, Peec AI et Profound livrent des dashboards. Mentionable livre une plateforme de données AI-native qui a aussi un dashboard.

Le pari plus large

Les outils qui survivent à la transition LLM sont ceux qui arrêtent de supposer que l'humain va ouvrir leur UI. Le produit, c'est la donnée. L'UI est une interface. MCP en est une autre. Demain il y en aura d'autres.

Si vous faites du marketing en 2026 et que votre assistant IA ne peut pas accéder à vos données de visibilité sans copier-coller, vous payez pour le mauvais outil.

Essayez

Démarrez un essai gratuit, créez une clé API depuis Paramètres → Intégrations, collez le Bearer token dans Claude Desktop, et posez à votre IA votre première vraie question sur votre visibilité.

Articles liés

Questions fréquentes

Qu'est-ce que MCP et pourquoi c'est important pour le tracking de visibilité IA ?
MCP signifie Model Context Protocol, un standard ouvert qui permet à un agent IA d'appeler des outils et des sources de données externes. Avec le serveur MCP de Mentionable, Claude Desktop, Cursor, ChatGPT, Claude Code et tout client compatible peuvent interroger directement vos données de visibilité IA. Au lieu d'ouvrir un dashboard pour vérifier votre taux de mention, vous demandez à Claude : la réponse arrive avec vos vraies métriques Mentionable en quelques secondes.
Quels clients IA supportent MCP aujourd'hui ?
Claude Desktop (first-party), Claude Code, Cursor (via config), ChatGPT (via connecteurs custom), Zed editor, et une liste croissante d'agents tiers. Le protocole est ouvert donc n'importe quel éditeur peut ajouter le support. Le serveur MCP de Mentionable utilise le transport Streamable HTTP, le mode de déploiement standard pour les serveurs hébergés sur le web.
Quels outils expose le serveur MCP de Mentionable ?
Sept outils au lancement : list_projects (tous les projets accessibles à la clé), list_prompts (prompts trackés avec taux de mention, visibilité par LLM, dernier résultat par LLM), list_llm_sources (domaines cités dans les réponses LLM plus recherches fan-out, avec ventilation visible/caché/fan-out), list_backlink_opportunities (domaines où placer un backlink peut booster la visibilité GEO, avec offres marketplace et tri par prix), list_competitors (concurrents trackés avec Share of Voice et présence par LLM), list_competitor_sources (où un concurrent spécifique est cité, la liste d'outreach prioritaire), et bulk_update_competitor_status (confirmer ou rejeter des suggestions de concurrents en masse).
Comment les clés API sont-elles sécurisées ?
Les clés sont générées avec 192 bits d'entropie, hashées avec SHA-256 avant stockage, et le plaintext n'est affiché qu'une seule fois à la création. Chaque clé est rattachée à une appartenance tenant unique, hérite du rôle et des restrictions de projets de l'utilisateur qui l'a créée, et peut être restreinte davantage à des projets spécifiques. Une clé ne peut jamais accorder plus d'accès que l'utilisateur n'en a lui-même. La révocation se fait en un clic et prend effet au prochain appel. Les opérations d'écriture respectent le gating par rôle : un utilisateur en rôle customer qui crée une clé ne peut toujours pas muter de données avec.
Mon agent IA peut-il modifier des données via MCP ou seulement lire ?
Lecture plus une écriture contrôlée. Les outils de lecture (projets, prompts, sources, backlinks, concurrents) couvrent les cas d'usage d'interrogation. L'outil d'écriture, bulk_update_competitor_status, permet à un agent de confirmer ou rejeter jusqu'à 50 suggestions de concurrents en un seul appel, l'opération batch la plus courante dans l'app. D'autres outils d'écriture sont volontairement restreints pour la sécurité et seront ouverts en fonction des signaux d'usage. Chaque écriture passe par les mêmes checks de permission que l'interface web.
Dois-je être sur un plan spécifique pour utiliser MCP ?
MCP est disponible sur tous les plans payants Mentionable : Growth (79 EUR/mois), Pro (149 EUR/mois) et Agency (tarif sur mesure, contacter l'équipe). Chaque plan inclut la génération de clés API depuis les paramètres de l'espace, onglet Intégrations. Les rate limits sont appliqués par clé (100 requêtes par minute par défaut), suffisamment large pour une utilisation normale d'agent IA. Pour des workflows à volume élevé, contactez-nous pour discuter d'un quota supérieur.
Quels workflows sont meilleurs via MCP plutôt que dans l'app ?
Trois catégories en tirent le plus de valeur. Briefs de contenu : demandez à Claude de récupérer les sources les plus citées sur un prompt tracké, puis de rédiger un brief qui cible ces sources. Préparation d'outreach : demandez à votre agent de lister les sources de citation de vos concurrents où votre marque n'apparaît pas, avec angles d'email suggérés. Triage opérationnel : demandez à Claude de montrer les concurrents détectés les 7 derniers jours à modérer, passez-les en revue, confirmez ou rejetez en masse. L'app reste le meilleur endroit pour les dashboards profonds, le setup de tracking, la gestion des crédits scan, et la génération de contenu.
Comment ça se compare à Otterly, Peec AI ou Profound ?
En avril 2026, Mentionable est le seul outil public de tracking de visibilité IA avec un serveur MCP. Otterly et Peec AI proposent des dashboards et quelques APIs d'export, mais aucune intégration MCP native. Profound cible l'entreprise avec des analytics plus larges mais n'a pas de MCP non plus. Si votre équipe utilise déjà Claude Desktop ou Cursor au quotidien, MCP supprime l'aller-retour entre votre assistant IA et vos données de visibilité. Ce n'est pas une petite amélioration de workflow, c'est une catégorie produit différente.
Le serveur MCP est-il stable et prêt pour la production ?
Le serveur est construit sur le SDK officiel @modelcontextprotocol/sdk et l'adaptateur Vercel mcp-handler, tous deux production-grade. Il tourne dans Next.js 16 sur la même stack que l'app web, avec le même modèle d'auth, le même rate limiter, et la même base de données. Il est couvert par des tests unitaires et testé end-to-end en dev. La surface API est versionnée via les métadonnées du serveur et les noms d'outils seront traités comme un contrat stable une fois passé la phase 0.x.

Prêt à vérifier votre visibilité IA ?

Découvrez si ChatGPT vous mentionnent sur les requêtes qui génèrent vraiment des ventes. Sans carte bancaire.

Continuer la lecture