Vous ouvrez Claude Desktop. Vous demandez : « Comment ma visibilité IA a-t-elle évolué cette semaine, et quelles sources dois-je démarcher ? ». Claude récupère les données de Mentionable via MCP, regarde vos prompts trackés, identifie les domaines qui citent vos deux principaux concurrents mais pas vous, les classe par impact score et prix marketplace, et vous rend une shortlist d'outreach en quatre lignes.
Aucun changement d'onglet. Aucun copier-coller de captures d'écran de dashboard dans un chat. Aucun « attendez, je vérifie ça dans Mentionable et je reviens ». Votre IA a la donnée, parce que la donnée va là où l'IA vit.
Qu'est-ce que MCP et pourquoi c'est dans un produit GEO
Le Model Context Protocol est un standard ouvert introduit par Anthropic fin 2024 qui permet à un agent IA d'appeler des outils et des données externes via une interface commune. Un client (Claude Desktop, Cursor, Claude Code, ChatGPT avec connecteurs custom, Zed) implémente le côté client. Un éditeur (Mentionable, dans ce cas) implémente un serveur qui expose des outils et des ressources. L'agent découvre les outils, les invoque quand c'est pertinent, lit la réponse, et intègre la donnée dans sa réponse finale.
Pour un tracker de visibilité IA, ce n'est pas un bonus. C'est le canal de distribution naturel.
La plupart des outils marketing construits la dernière décennie partaient du principe que le dashboard était le produit. Vous payez, vous vous connectez, vous lisez des charts, vous exportez des CSV. Ce modèle avait du sens quand les marketeurs lisaient leurs rapports le matin et prenaient des décisions dans une UI.
Ce modèle n'a plus de sens quand l'outil quotidien du marketeur est un agent IA. Un consultant qui rédige un article dans Cursor, un opérateur d'agence qui gère 5 projets clients via Claude Desktop, un fondateur qui demande à ChatGPT de résumer ses métriques hebdo : ils ne veulent pas quitter leur IA pour vérifier un dashboard. Ils veulent la réponse du dashboard dans l'IA.
MCP est le protocole qui rend ça possible. Le serveur Mentionable le rend concret.
Les 7 outils, et ce qu'ils débloquent
Le serveur MCP expose 7 outils au lancement, alignés sur les données à plus fort signal que Mentionable trace déjà.
list_projects
Les projets de votre espace, avec scoping tenant automatique. Le point d'entrée de tout workflow d'agent. Tous les autres outils prennent un projectId, donc c'est le premier appel que l'agent fait quand vous demandez « que se passe-t-il sur mes marques ».
list_prompts
Chaque prompt tracké d'un projet, avec ses stats complètes : nombre total de runs, taux de mention, visibilité par LLM (ChatGPT, Perplexity, Gemini, Grok, Copilot, Google AI Mode, Google AI Overview), dernier résultat par LLM avec position de marque et sentiment. Un agent peut répondre à « sur quels prompts je perds de la visibilité ce mois-ci » en un seul appel.
list_llm_sources
L'outil le plus précieux pour la stratégie de contenu. Retourne chaque domaine qui est apparu dans les réponses LLM pour vos prompts trackés, ventilé en trois types d'apparition :
- Citations visibles : le LLM a cité ce domaine dans sa réponse, l'utilisateur a vu le lien
- Citations cachées : le LLM a lu ce domaine dans son contexte mais ne l'a pas cité dans la réponse finale (disponible sur les LLMs qui exposent ce signal, typiquement Perplexity et Gemini)
- Fan-out searches : le LLM a lancé une recherche en arrière-plan et a trouvé ce domaine dans les résultats, qu'il l'ait cité ou pas
La donnée fan-out est une mine d'or GEO. Elle vous dit quels domaines le LLM considère quand il répond à des prompts de votre niche, même si aucune citation n'a jamais été montrée à l'utilisateur. Ces domaines sont la vraie carte d'influence. Un agent peut demander à l'outil les domaines avec un fort fan-out count mais un faible nombre de citations visibles, et vous voyez immédiatement les sites que les LLMs consultent sans les créditer : des candidats prioritaires pour la collaboration de contenu ou le backlink.
list_backlink_opportunities
Les domaines où placer un backlink peut booster votre visibilité GEO, classés par un score d'impact composite qui pondère le nombre de citations, la fréquence de fan-out, le nombre de LLMs distincts qui citent le domaine, et le nombre de vos prompts trackés où le domaine apparaît. Chaque domaine vient avec ses offres marketplace actuelles (prix, provider) issues de la donnée backlink agrégée de Mentionable. Un agent peut répondre à « quelle est ma meilleure opportunité de backlink en dessous de 500 € » en un seul appel d'outil et retourner une shortlist triée, pas un mur de bruit.
list_competitors
Les concurrents trackés sur un projet, avec totaux de mentions agrégés, Share of Voice, présence par LLM, et statut (confirmé, suggéré, rejeté). La base pour toute conversation d'intelligence concurrentielle avec votre IA.
list_competitor_sources
L'endpoint d'outreach le plus utile. Étant donné un concurrent spécifique, l'outil retourne chaque domaine où ce concurrent est cité, avec nombre de mentions, LLMs, URLs top et contexte sample de la réponse LLM. Si votre concurrent est cité 12 fois sur un site de review spécifique et que vous n'y êtes pas, ce site est une cible d'outreach directe. Un agent peut préparer une liste d'outreach concurrentielle complète en un seul prompt.
bulk_update_competitor_status
L'outil d'écriture. Accepte jusqu'à 50 mises à jour de concurrents en un appel, chacune CONFIRMED, SUGGESTED (en attente) ou REJECTED. Un agent peut exécuter le workflow opérationnel courant entièrement depuis le chat : « liste les 12 suggestions de concurrents détectées la semaine dernière, garde ces 8 comme vrais concurrents, rejette ces 4 comme bruit ». Un appel, résultats atomiques, gestion d'erreur par item quand un ID est invalide.
Des workflows réels, pas des démos
La valeur de MCP se révèle dans des workflows spécifiques qui compressent du travail manuel multi-étapes en une seule conversation.
Briefs de contenu depuis la donnée de citation IA
Vous demandez à Claude : « Rédige un brief de contenu pour le prompt « best gym management software ». Utilise les 5 sources les plus citées comme matériel de référence et explique pourquoi chacune ranke. »
Claude appelle list_llm_sources filtré sur ce prompt, récupère les 5 domaines top avec leurs fan-out queries et URLs sample, lit les titres et la classification seenAs, et rédige un brief dont la structure reflète ce que les LLMs valorisent déjà. Votre brief n'est pas de la spéculation. Il est dérivé de vrais signaux de citation.
Listes d'outreach sans tableur
Vous demandez à ChatGPT : « Trouve-moi 15 cibles d'outreach pour ce mois. Je veux des domaines qui citent au moins deux de mes trois principaux concurrents mais qui ne nous ont jamais cités. »
ChatGPT appelle list_competitor_sources sur chacun de vos trois concurrents top, intersecte les listes de domaines, compare avec list_llm_sources pour votre propre empreinte de citation, retire les domaines où vous apparaissez déjà, et retourne une liste classée avec les counts de citation des concurrents et votre score d'absence actuel. La version manuelle de ce workflow prend 90 minutes de tableur.
Triage opérationnel en une conversation
Vous demandez à Claude Desktop : « Montre-moi les suggestions de concurrents détectées les 14 derniers jours. Je vais passer chacune en revue et confirmer ou rejeter. »
Claude appelle list_competitors filtré sur le statut SUGGESTED créés récemment, les présente avec contexte et nombre de mentions, vous approuvez ou rejetez chacun depuis le chat, Claude appelle bulk_update_competitor_status une fois avec le batch complet. Un triage qui prenait 20 minutes de clics dans l'app, fait en une conversation de deux minutes.
Un modèle de sécurité que vous pouvez raisonner
Un seul principe : une clé API ne peut jamais accorder plus d'accès que l'utilisateur n'en a lui-même.
Les clés sont rattachées à votre TenantMember (votre paire user-tenant). Si vous appartenez à deux espaces, chaque espace a son propre jeu de vos clés. Vous créez une clé dans les paramètres de l'espace sous l'onglet Intégrations, vous lui donnez un nom, vous la restreignez optionnellement à des projets spécifiques dans votre scope, vous copiez le plaintext une seule fois (affiché une seule fois), et vous configurez votre client IA.
À chaque appel, le serveur résout les permissions effectives en intersectant vos permissions de membership courantes avec les restrictions optionnelles de la clé. Si vous êtes retiré de l'espace plus tard, vos clés cessent de fonctionner immédiatement au prochain appel. Si votre rôle est dégradé en lecture seule (customer), vos clés se mettent à refuser les opérations d'écriture immédiatement. Rien n'est mis en cache, pas de permission figée.
Le plaintext n'est jamais stocké. Le serveur stocke un hash SHA-256 de la clé et un préfixe visible pour l'identification dans l'UI. La révocation se fait en un clic et prend effet au prochain appel.
Les rate limits sont appliqués par clé via une fenêtre glissante : 100 requêtes par minute par défaut, large pour un trafic d'agent IA normal.
Setup en moins de 60 secondes
Pour Claude Desktop, ajoutez le serveur à votre configuration :
{
"mcpServers": {
"mentionable": {
"url": "https://mentionable.ai/api/mcp",
"headers": {
"Authorization": "Bearer mnt_sk_VOTRE_CLE"
}
}
}
}
Pour Cursor, le format est similaire. Pour Claude Code, utilisez la CLI pour enregistrer le serveur. Pour ChatGPT, ajoutez Mentionable comme custom connector en utilisant la même URL et le même Bearer token.
Créez une clé dans Mentionable → Paramètres → Intégrations → Clés API, collez-la dans la config de votre client, redémarrez le client, et votre prochaine conversation Claude peut appeler vos données Mentionable.
Pourquoi aucun autre tracker de visibilité IA n'offre ça
La réponse courte : parce que construire correctement un serveur MCP suppose un contrat d'outils stable, une authentification propre par utilisateur, des permissions qui connaissent le membership, et un modèle de données qui vaut le coup d'être interrogé. La plupart des outils de visibilité IA sont des coquilles de dashboard posées sur du scraping. Ils n'ont pas de donnée normalisée et API-friendly dessous.
Mentionable a eu un modèle de données multi-tenant propre et une couche d'auth dès le premier jour, parce que l'app elle-même est multi-utilisateurs. Ajouter MCP a été une extension naturelle, pas un rétrofit.
Otterly, Peec AI et Profound livrent des dashboards. Mentionable livre une plateforme de données AI-native qui a aussi un dashboard.
Le pari plus large
Les outils qui survivent à la transition LLM sont ceux qui arrêtent de supposer que l'humain va ouvrir leur UI. Le produit, c'est la donnée. L'UI est une interface. MCP en est une autre. Demain il y en aura d'autres.
Si vous faites du marketing en 2026 et que votre assistant IA ne peut pas accéder à vos données de visibilité sans copier-coller, vous payez pour le mauvais outil.
Essayez
Démarrez un essai gratuit, créez une clé API depuis Paramètres → Intégrations, collez le Bearer token dans Claude Desktop, et posez à votre IA votre première vraie question sur votre visibilité.
Articles liés
- Tracking Concurrents - le tracking sous-jacent qui rend les outils concurrents du MCP intéressants.
- Tracking Sources & Citations - la donnée derrière list_llm_sources.
- Opportunités d'Outreach - la version in-app du workflow backlink que le MCP expose aussi.