Das fehlende Glied bei KI-gestützter Übersetzung
Jahrelang konnte KI Text wunderbar übersetzen, aber nichts mit dem Ergebnis machen. Man bekam eine Übersetzung von Claude oder GPT, kopierte sie dann manuell in die Übersetzungsdateien, pushte sie zum TMS, aktualisierte die Datenbank.
Model Context Protocol ändert das. MCP ist Anthropics offener Standard um KI-Modellen die Fähigkeit zu geben mit externen Systemen zu interagieren—Dateisystemen, Datenbanken, APIs und ja, Translation Management Systemen.
Was genau ist MCP?
Model Context Protocol ist eine Spezifikation dafür wie KI-Modelle mit externen Tools interagieren können. Stellen Sie es sich als standardisierte API für KI-Fähigkeiten vor.
Vor MCP war jede KI-Tool-Integration individuell. OpenAI hatte Function Calling. LangChain hatte seine Tools-Abstraktion. Jeder Anbieter hatte seinen eigenen Ansatz.
MCP bietet eine gemeinsame Sprache. Ein MCP-Server stellt Fähigkeiten bereit, und jeder MCP-kompatible Client (Claude Desktop, Claude Code, Cursor, usw.) kann diese nutzen.
MCP-Architektur für Übersetzung
1. MCP Client (die KI)
Claude Desktop, Claude Code, Cursor oder jede MCP-fähige Anwendung.
2. MCP Server (die Integration)
Ein Service der Tools für die KI bereitstellt. Für Übersetzung verbindet dieser sich mit Ihrem TMS und bietet Operationen wie Projekte auflisten, Übersetzungsstatus abrufen, Übersetzungs-Keys erstellen, Übersetzungen aktualisieren.
3. Transport Layer
Wie Client und Server kommunizieren: stdio für lokale Server, HTTP/SSE für Remote-Server.
Einen Übersetzungs-MCP-Server einrichten
Schritt 1: Server installieren
Terminalnpm install -g @intlpullhq/mcp-server
Schritt 2: Credentials konfigurieren
Terminalnpx @intlpullhq/cli login
Schritt 3: MCP-Client konfigurieren
Für Claude Desktop, in ~/Library/Application Support/Claude/claude_desktop_config.json:
JSON1{ 2 "mcpServers": { 3 "intlpull": { 4 "command": "npx", 5 "args": ["-y", "@intlpullhq/mcp-server"], 6 "env": { 7 "INTLPULL_API_KEY": "your-api-key" 8 } 9 } 10 } 11}
Echte Workflows mit MCP
Workflow 1: Tägliche Übersetzungs-Synchronisation
Ich: "Zeig mir welche Keys heute hinzugefügt wurden die noch keine Übersetzungen haben"
Claude fragt per MCP kürzlich erstellte Keys ab, filtert nach fehlenden Übersetzungen.
Ich: "Übersetze die ins Spanische und Deutsche, markiere sie für Review"
Claude übersetzt jeden Key per MCP, setzt Status auf needs_review.
Zeitaufwand: 2 Minuten. Vor MCP: TMS-Dashboard öffnen, filtern, übersetzen, Status manuell aktualisieren.
Workflow 2: Strings aus neuem Code extrahieren
Ich: "Ich habe gerade diese Komponente geschrieben. Extrahiere die hardcoded Strings, erstelle Keys in IntlPull und aktualisiere die Komponente um t() zu nutzen."
Claude identifiziert Strings, generiert Key-Namen, erstellt Keys per MCP, schreibt Komponente um, zeigt Diff.
MCP vs andere Integrationsansätze
MCP vs Function Calling (OpenAI)
Function Calling ist single-turn. MCP ist persistent: der Server behält State, das Modell kann mehrere Calls in einer Session machen.
MCP vs Custom Plugins
Vor MCP baute man eine individuelle Integration für jede KI-Plattform. Mit MCP baut man einmal und deployt überall wo das Protokoll unterstützt wird.
Sicherheitsüberlegungen
- Authentifizierung: API-Keys mit minimalen Berechtigungen verwenden
- Autorisierung: Read-only Server für sensible Projekte erwägen
- Audit-Logging: Alle MCP-Operationen loggen
Die Zukunft von MCP für Übersetzung
Multi-Server-Koordination: Bald werden KI-Clients über mehrere Server koordinieren: Ihr TMS, Ihr Git-Repo, Ihre CI/CD, alle zusammenarbeitend.
Stellen Sie sich vor: "Erstelle einen PR der German-Support hinzufügt, inklusive aller übersetzten Strings." Die KI koordiniert: Branch erstellen (Git MCP), Sprache hinzufügen (TMS MCP), Content übersetzen (TMS MCP), PR erstellen (GitHub MCP).
IntlPulls MCP-Server bietet volle Übersetzungsmanagement-Fähigkeiten für Claude Desktop, Claude Code und Cursor. Installieren mit npm install -g @intlpullhq/mcp-server.
