IntlPull
Guide
15 min read

MCP pour la Traduction : Comment le Model Context Protocol change l'automatisation i18n

Plongée dans le Model Context Protocol (MCP) pour les flux de traduction. Apprenez comment MCP permet aux assistants IA de gérer les traductions, se connecter aux plateformes TMS et automatiser la localisation.

IntlPull Team
IntlPull Team
Feb 10, 2026
On this page
Summary

Plongée dans le Model Context Protocol (MCP) pour les flux de traduction. Apprenez comment MCP permet aux assistants IA de gérer les traductions, se connecter aux plateformes TMS et automatiser la localisation.

Le chaînon manquant de la traduction assistée par IA

Pendant des années, l'IA pouvait traduire du texte magnifiquement mais ne pouvait rien faire du résultat. Vous obteniez une traduction de Claude ou GPT, puis la copiez manuellement dans vos fichiers de traduction, la poussiez vers votre TMS, mettiez à jour votre base de données. L'IA était intelligente, mais elle n'avait pas de mains.

Le Model Context Protocol change cela. MCP est le standard ouvert d'Anthropic pour donner aux modèles d'IA la capacité d'interagir avec des systèmes externes comme les systèmes de fichiers, les bases de données, les API, et oui, les systèmes de gestion de traduction.

Quand j'ai connecté pour la première fois le serveur MCP d'IntlPull à Claude, l'expérience était vraiment différente. Je n'ai pas juste demandé "traduire ceci en espagnol." J'ai dit "ajoute les traductions espagnoles manquantes à mon projet et pousse-les." Et il l'a fait. Pas de copier-coller. Pas de changement de contexte. Juste fait.

Ce guide explique ce qu'est MCP, comment il fonctionne pour la traduction, et comment le configurer pour votre flux de travail i18n.

Qu'est-ce que MCP exactement ?

Le Model Context Protocol est une spécification pour la façon dont les modèles d'IA peuvent interagir avec des outils externes. Pensez-y comme une API standardisée pour les capacités d'IA.

Avant MCP, chaque intégration d'outil IA était personnalisée. OpenAI avait l'appel de fonction. LangChain avait son abstraction d'outils. Chaque fournisseur avait sa propre approche.

MCP fournit un langage commun. Un serveur MCP expose des capacités, et tout client compatible MCP (Claude Desktop, Claude Code, Cursor, etc.) peut les utiliser.

Pour la traduction, cela signifie que vous écrivez un serveur MCP pour votre TMS, et il fonctionne partout où MCP est supporté.

Architecture MCP pour la traduction

L'architecture a trois parties :

1. Client MCP (l'IA)

Claude Desktop, Claude Code, Cursor, ou toute application compatible MCP. C'est là que vous interagissez avec l'IA.

2. Serveur MCP (l'intégration)

Un service qui expose des outils à l'IA. Pour la traduction, cela se connecte à votre TMS et fournit des opérations comme lister les projets, obtenir le statut de traduction, créer des clés de traduction, mettre à jour les traductions et rechercher dans la mémoire de traduction.

3. Couche de Transport

Comment le client et le serveur communiquent. Les options incluent stdio (entrée/sortie standard) pour les serveurs locaux, HTTP/SSE pour les serveurs distants, et WebSocket pour le streaming bidirectionnel.

La plupart des serveurs MCP de traduction utilisent stdio pour le développement local et HTTP pour l'accès à l'échelle de l'équipe.

Configurer un serveur MCP de traduction

Parcourons la configuration du serveur MCP d'IntlPull comme exemple.

Étape 1 : Installer le serveur

Exécutez : npm install -g @intlpullhq/mcp-server

Étape 2 : Configurer les identifiants

Créez ou mettez à jour votre config IntlPull en exécutant npx @intlpullhq/cli login, ou définissez manuellement les identifiants dans .intlpull.json.

Étape 3 : Configurer votre client MCP

Pour Claude Desktop, éditez le fichier de configuration à ~/Library/Application Support/Claude/claude_desktop_config.json. Ajoutez un objet mcpServers avec une entrée "intlpull" qui a la commande "npx", les args ["-y", "@intlpullhq/mcp-server"], et env avec votre INTLPULL_API_KEY.

Pour Claude Code, éditez ~/.claude/settings.json de la même manière. Ajoutez mcpServers avec commande intlpull et args.

Pour Cursor, ajoutez le serveur dans la section Serveurs MCP des paramètres avec la même structure.

Étape 4 : Vérifier la connexion

Ouvrez votre client MCP et essayez : "Liste mes projets IntlPull"

Si vous voyez vos projets, vous êtes connecté.

Opérations de traduction disponibles via MCP

Un serveur MCP de traduction bien conçu expose des opérations comme :

Gestion de projet : list_projects pour obtenir tous les projets, get_project pour obtenir les détails et stats du projet, switch_project pour changer le contexte de projet actif.

Gestion des clés : list_keys pour lister les clés de traduction avec filtrage, create_key pour créer une nouvelle clé, update_key pour modifier les métadonnées de clé, delete_key pour supprimer une clé, search_keys pour la recherche plein texte dans les clés.

Opérations de traduction : get_translations pour obtenir les traductions d'une clé, update_translation pour définir une valeur, translate_missing pour traduction IA du contenu manquant, bulk_translate pour traduire plusieurs clés.

Statut et rapports : get_status pour la couverture par langue, get_missing pour les clés sans traductions, get_needs_review pour les traductions signalées pour révision.

Mémoire de traduction : search_tm pour rechercher dans la mémoire, add_to_tm pour ajouter une paire à la mémoire.

Flux de travail réels avec MCP

Voici des choses concrètes que je fais avec la traduction connectée MCP :

Flux 1 : Synchronisation de traduction en fin de journée

Moi : "Montre-moi quelles clés ont été ajoutées aujourd'hui qui n'ont pas encore de traductions"

Claude utilise MCP pour interroger les clés créées récemment, filtre les traductions manquantes, montre le résumé.

Moi : "Traduis-les en espagnol et allemand, marque-les pour révision"

Claude utilise MCP pour traduire chaque clé, définit le statut à needs_review, rapporte les résultats.

Temps total : peut-être 2 minutes. Avant MCP : aurait impliqué d'ouvrir le tableau de bord TMS, filtrer, exécuter les traductions, mettre à jour les statuts manuellement.

Flux 2 : Vérification pré-lancement

Moi : "Vérifie si nous sommes prêts à lancer en japonais. Des traductions manquantes ou non révisées ?"

Claude interroge le statut du projet pour le japonais, liste les lacunes.

Moi : "Ces 3 clés manquantes semblent mineures. Traduis-les et marque comme prêtes."

Claude traduit, met à jour le statut, confirme.

Flux 3 : Extraction de chaînes du nouveau code

Moi : "Je viens d'écrire ce composant. Extrais les chaînes codées en dur, crée des clés dans IntlPull, et mets à jour le composant pour utiliser t()."

Claude identifie les chaînes, génère les noms de clés, crée les clés via MCP, réécrit le composant, montre le diff.

C'est le flux de travail tueur. L'IA voit le code, comprend le contexte, crée des clés correctement nommées dans le TMS, et refactorise le code, le tout en une seule interaction.

Flux 4 : Vérification de cohérence de traduction

Moi : "Vérifie si 'Submit' est traduit de manière cohérente à travers tous les espaces de noms"

Claude cherche les clés contenant 'submit', compare les traductions, rapporte les incohérences.

Moi : "Standardise-les toutes pour utiliser 'Enviar' en espagnol"

Claude met à jour toutes les traductions pertinentes via MCP.

Construire des serveurs MCP de traduction personnalisés

Si votre TMS n'a pas de serveur MCP, vous pouvez en construire un. La structure de base en TypeScript implique d'importer McpServer du SDK MCP, de créer une instance de serveur avec nom et version, puis de définir des outils.

Chaque outil a un nom comme 'list_keys', une description, un schéma définissant les paramètres (avec types et descriptions), et une fonction gestionnaire asynchrone qui appelle votre client TMS et retourne les résultats.

Enfin, vous créez un transport (généralement StdioServerTransport) et connectez le serveur à celui-ci.

Considérations de conception clés :

Soyez spécifique avec les noms d'outils : utilisez create_translation_key pas juste create.

Incluez la validation : vérifiez les entrées avant de faire des appels API.

Gérez les erreurs gracieusement : retournez des messages d'erreur utiles.

Supportez la pagination : les grandes listes de clés nécessitent une pagination.

Incluez le contexte : retournez assez de données pour que l'IA prenne des décisions.

MCP vs autres approches d'intégration

MCP vs Appel de fonction (OpenAI)

L'appel de fonction est à tour unique : vous définissez des fonctions, le modèle les appelle, vous exécutez, terminé.

MCP est persistant : le serveur maintient l'état, le modèle peut faire plusieurs appels dans une session, et il y a un mécanisme de découverte standard.

Pour les flux de traduction impliquant plusieurs étapes (vérifier statut → trouver lacunes → traduire → vérifier), la persistance de session de MCP compte.

MCP vs Plugins personnalisés

Avant MCP, vous construisiez une intégration personnalisée pour chaque plateforme IA. Avec MCP, vous construisez une fois et déployez partout où le protocole est supporté.

C'est particulièrement précieux alors que le paysage des outils IA évolue. Votre serveur MCP fonctionne avec Claude Desktop aujourd'hui et quoi que ce soit qui viendra ensuite.

MCP vs Wrappers API

Vous pourriez enseigner à Claude votre API TMS et lui faire faire des requêtes HTTP directement. Mais l'authentification est plus difficile à gérer, la gestion des erreurs devient la responsabilité du modèle, et vous envoyez la documentation API dans chaque prompt.

MCP encapsule cette complexité dans le serveur.

Considérations de sécurité

Les serveurs MCP ont accès à vos données de traduction. Pensez à :

Authentification : Utilisez des clés API avec les permissions minimales requises. Faites tourner les clés régulièrement. Ne commettez pas de clés dans les dépôts (utilisez des variables d'environnement).

Autorisation : Considérez quelles opérations le serveur MCP devrait permettre. Serveurs en lecture seule pour les projets sensibles. Flux d'approbation pour les changements de production.

Journalisation d'audit : Loguez toutes les opérations MCP. Suivez qui (quelle session IA) a fait quels changements. Activez la révision des changements initiés par l'IA.

Sécurité réseau : Pour les serveurs MCP distants, utilisez HTTPS. Considérez la liste blanche d'IP pour les serveurs de production. Surveillez les modèles d'activité inhabituels.

Optimisation des performances

Les appels MCP ajoutent de la latence. Pour des flux fluides :

Opérations par lots : Au lieu de créer 50 clés une par une, utilisez des points de terminaison de création en masse. Définissez un outil bulk_create_keys qui accepte un tableau de clés.

Mise en cache : Mettez en cache les métadonnées de projet, les listes de langues et autres données stables. Stockez en mémoire avec un horodatage et rafraîchissez après une minute environ.

Streaming des réponses : Pour les grands ensembles de données, considérez le streaming. Définissez un outil export_translations qui peut gérer les réponses en streaming de votre client TMS.

L'avenir de MCP pour la traduction

Où cela mène-t-il ?

Coordination multi-serveurs : Aujourd'hui, vous configurez un serveur MCP à la fois. Bientôt, les clients IA coordonneront à travers plusieurs serveurs : votre TMS, votre dépôt git, votre CI/CD, tous travaillant ensemble. Imaginez : "Crée une PR qui ajoute le support allemand, incluant toutes les chaînes traduites." L'IA coordonne : crée branche (git MCP), ajoute langue (TMS MCP), traduit contenu (TMS MCP), crée PR (GitHub MCP).

Serveurs de traduction spécialisés : Nous verrons des serveurs MCP optimisés pour des cas d'utilisation spécifiques : traduction médicale avec application de terminologie, traduction légale avec vérifications de conformité, traduction e-commerce avec optimisation SEO.

Collaboration en temps réel : MCP pourrait permettre une collaboration de traduction en temps réel où traducteurs humains et IA travaillent sur le même contenu, chacun voyant les changements de l'autre.

Déploiement en périphérie : Serveurs MCP fonctionnant à la périphérie pour une latence plus faible. Particulièrement important pour les flux de traduction interactifs.

Commencer aujourd'hui

  1. Installez un client compatible MCP : Claude Desktop (gratuit), Claude Code (pour flux terminal), ou Cursor (si vous préférez cet IDE).

  2. Connectez un serveur MCP de traduction : IntlPull MCP avec npm install -g @intlpullhq/mcp, ou construisez le vôtre pour d'autres plateformes TMS.

  3. Commencez simple : "Liste mes projets." "Quel est le statut de traduction pour l'espagnol ?" "Crée une clé pour ce texte."

  4. Construisez des flux : Combinez avec les compétences Claude Code. Intégrez dans votre routine de développement. Automatisez ce que vous faites de manière répétitive.

L'écart entre "l'IA peut traduire" et "l'IA gère les traductions" se referme. MCP est le pont. Les équipes qui le maîtrisent maintenant auront des avantages significatifs alors que les flux de travail natifs IA deviennent la norme.


Le serveur MCP d'IntlPull fournit des capacités complètes de gestion de traduction pour Claude Desktop, Claude Code et Cursor. Installez avec npm install -g @intlpullhq/mcp-server et connectez votre flux de travail dès aujourd'hui.

Tags
mcp
model-context-protocol
anthropic
automation
i18n
integration
2026
IntlPull Team
IntlPull Team
Engineering

Building tools to help teams ship products globally. Follow us for more insights on localization and i18n.