MCP — Model Context Protocol — ist ein offener Standard, der AI-Assistenten ermöglicht, sich über eine einzige universelle Schnittstelle mit externen Tools, Daten und Diensten zu verbinden. Stell dir vor, es ist USB-C für AI: Statt dass jede AI-App einen individuellen Anschluss für jedes Tool braucht, bietet MCP ein Protokoll, das überall funktioniert.
Falls du die Desktop-App von Claude genutzt und sie mit deinem Google Drive verbunden hast, hast du MCP bereits verwendet. Wenn du AI-Coding-Tools wie Cursor oder Claude Code gesehen hast, die Live-Daten von GitHub ziehen — das ist auch MCP. Das Protokoll wurde im November 2024 gestartet und bis Mitte 2026 ist es der Standardweg, wie AI mit der realen Welt verbindet.
Diese Anleitung erklärt, was MCP ist, warum es wichtig ist, auch wenn du kein Entwickler bist, und wie es die Tools verändert, die du schon nutzt.
Warum gibt es MCP?
Vor MCP war jede AI-Integration ein individueller Aufwand. Willst du, dass ChatGPT deine Slack-Nachrichten liest? Jemand musste ein Slack-spezifisches Plugin bauen. Willst du, dass Claude deine Datenbank abfragt? Jemand musste einen individuellen Connector schreiben. Willst du, dass Gemini auf deinen Google Drive zugreift? Google musste die Integration von Grund auf bauen.
Das schuf, was Ingenieure das „N×M-Problem“ nennen. Hast du 10 AI-Apps und 50 Tools, brauchst du 500 individuelle Integrationen. Jedes neue AI-Modell bedeutet 50 weitere. Jedes neue Tool bedeutet 10 weitere. Das skaliert nicht.
MCP reduziert das auf „N+M“. Baue einen MCP-Server für dein Tool, und es funktioniert mit jeder AI-App, die MCP spricht. Baue einen MCP-Client in deine AI-App ein, und sie verbindet sich mit jedem MCP-kompatiblen Tool. 10 AI-Apps plus 50 Tools brauchen nur 60 Implementierungen, nicht 500.
Die Analogie, die bei den meisten ankommt: Vor USB-C hatte jedes Handy einen anderen Ladegerät. Jede Kamera ein anderes Kabel. USB-C hat ein Kabel für alles möglich gemacht. MCP tut dasselbe für AI-Tool-Verbindungen.
Wie funktioniert MCP?
MCP hat drei Rollen, die zusammenarbeiten:
Der Host ist deine AI-Anwendung — Claude Desktop, ChatGPT, Cursor oder jede App mit einem AI-Assistenten. Der Host ist das, womit du interagierst. Er führt einen MCP-Client aus, der die Kommunikation mit Servern handhabt.
Der Server ist ein kleines Programm, das sich mit einem spezifischen Tool oder Datensource verbindet. Es gibt einen MCP-Server für GitHub, einen für Slack, einen für Google Drive, einen für PostgreSQL und Hunderte mehr. Jeder Server stellt die Fähigkeiten seines Tools standardisiert dar.
Das Protokoll ist die Sprache, die sie sprechen. Es basiert auf JSON-RPC 2.0 (ein einfaches, etabliertes Nachrichtenformat). Der Host fragt „was kannst du?“ und der Server antwortet mit seinen verfügbaren Tools, Ressourcen und Prompt-Vorlagen.
Wenn du Claude fragst „zeig mir die 10 neuesten Slack-Nachrichten im #engineering-Kanal“, passiert Folgendes: Claudes MCP-Client kontaktiert den Slack-MCP-Server, entdeckt das Tool „Nachrichten lesen“, ruft es mit deinen Parametern auf, empfängt die Nachrichten und präsentiert sie dir in natürlicher Sprache. Du siehst das Protokoll nie — du bekommst einfach die Antwort.
Was sind Tools, Resources und Prompts in MCP?
Jeder MCP-Server kann drei Arten von Fähigkeiten bereitstellen:
Tools sind Aktionen, die die AI ausführen kann — eine Nachricht senden, eine Datei erstellen, eine Datenbankabfrage ausführen, einen Pull Request öffnen. Tools sind die „Hände“ der AI. Jedes Tool hat einen Namen, eine Beschreibung und definierte Eingaben/Ausgaben, damit die AI weiß, wie sie es richtig nutzt.
Resources sind Daten, die die AI lesen kann — ein Dokument, eine Datenbankzeile, der aktuelle Status eines Jira-Tickets, eine Log-Datei. Resources liefern Kontext. Die AI kann relevante Informationen einholen, bevor sie antwortet, und so Antworten auf realen Daten basieren lassen, nicht nur auf Trainingswissen.
Prompts sind wiederverwendbare Vorlagen, die der Server anbietet — „fasse diesen PR zusammen“, „entwerfe ein Standup-Update aus diesen Commits“, „analysiere diesen Error-Log“. Sie kodieren Best Practices für spezifische Aufgaben, damit du den Prompt nicht jedes Mal von Grund auf schreiben musst.
Nicht jeder Server stellt alle drei zur Verfügung. Ein schreibgeschützter Server wie eine Dokumentensuche bietet vielleicht nur Resources. Ein GitHub-Server bietet Tools (Issue erstellen, PR mergen), Resources (Dateiinhalte lesen) und Prompts (PR-Änderungen zusammenfassen).
--- 📬 Davon Nutzen ziehen? Wir veröffentlichen wöchentlich einen Deep Dive zu AI-Tools und Workflows. Trete Lesern bei, die es in ihrem Posteingang bekommen → ---Wer nutzt MCP heute?
Stand Mitte 2026 hat MCP bei allen großen AI-Plattformen Verbreitung gefunden:
Anthropic hat MCP entwickelt und nutzt es nativ in Claude Desktop und Claude Code. Wenn du Claude Desktop mit deinem Dateisystem, Google Drive oder GitHub verbindest, läuft MCP im Hintergrund.
OpenAI hat MCP-Unterstützung Anfang 2026 zu ChatGPT hinzugefügt. Die App-Integrationen von ChatGPT — Verbindung zu Drittanbieter-Diensten aus dem Chat heraus — nutzen MCP als Kommunikationsschicht.
Google folgte mit MCP-Unterstützung für Gemini. Entwicklertools wie Cursor, Windsurf und Sourcegraph Cody sprechen alle MCP für ihre Tool-Integrationen.
Auf Server-Seite gibt es über 1.000 community-gebaute MCP-Server für GitHub, Slack, PostgreSQL, Stripe, Figma, Docker, Kubernetes, Notion, Linear, Jira und praktisch jedes Entwickler- und Business-Tool, das du nennen kannst. Das offizielle Registry auf GitHub trackt sie alle.
Im Dezember 2025 hat Anthropic MCP an die Agentic AI Foundation unter der Linux Foundation gespendet, die mit Block und OpenAI mitgegründet wurde. Damit wurde es zu einem echten offenen Standard, nicht zum Projekt eines einzelnen Unternehmens.
Was unterscheidet MCP von ChatGPT Plugins?
Falls du dich an das Plugin-System von ChatGPT aus 2023 erinnerst, fragst du dich vielleicht, was MCP anders macht. Der Hauptunterschied: Plugins waren proprietär für OpenAI. Ein ChatGPT-Plugin funktionierte nur in ChatGPT. Wolltest du dieselbe Integration in Claude, musstest du sie von Grund auf neu bauen.
MCP ist modell-unabhängig. Ein MCP-Server für GitHub funktioniert mit Claude, ChatGPT, Gemini, Cursor und jedem anderen MCP-kompatiblen Host. Einmal bauen, überall verbinden.
MCP ist auch leistungsfähiger. Plugins konnten nur Text senden und empfangen. MCP unterstützt Tools (Aktionen), Resources (Daten) und Prompts (Vorlagen) plus Streaming, Authentifizierung und Fehlerbehandlung — alles standardisiert.
Was bedeutet MCP für dich?
Bist du kein Entwickler, beeinflusst MCP deine tägliche AI-Nutzung auf drei Arten:
Deine AI-Apps verbinden sich schneller mit mehr Tools. Weil MCP standardisiert ist, erscheinen neue Integrationen rasch. Wenn ein Tool einen MCP-Server ausliefert, funktioniert es sofort mit jeder MCP-fähigen AI-App. Du wartest nicht Monate, bis deine AI deine Lieblings-Tools unterstützt.
Du kannst AI-Modelle wechseln, ohne Integrationen zu verlieren. Verbinde 10 Tools mit Claude über MCP und wechselst später zu ChatGPT, funktionieren dieselben MCP-Server dort auch. Du bist nicht mehr an eine AI-Plattform gebunden wegen ihrer Integrationen.
AI-Agents werden praxistauglich. Ein AI-Agent, der planen, reasoning und mehrstufige Aktionen ausführen kann, braucht zuverlässigen Zugriff auf echte Tools. MCP liefert diese Zuverlässigkeit. Ohne einen Standard wie MCP ist jeder Agent ein fragiler Sonderbau. Mit MCP können Agents sich in jedes Tool einpluggen, das das Protokoll spricht. Deshalb werden AI-Coding-Agents wie Claude Code und Codex praxistauglich — sie nutzen MCP, um mit deinem Code, Terminal und externen Services zu interagieren.
Wie fängst du mit MCP an?
Der einfachste Weg, MCP auszuprobieren, ist mit Claude Desktop:
Schritt 1: Lade Claude Desktop von claude.ai/download herunter. MCP funktioniert nur in der Desktop-App, nicht im Browser.
Schritt 2: Öffne Einstellungen → MCP Servers. Du siehst Optionen, um Server hinzuzufügen.
Schritt 3: Füge einen integrierten Server hinzu — Dateisystem-Zugriff ist der einfachste Einstieg. Zeige auf einen Projektordner. Nun kann Claude deine Dateien lesen, in Dokumenten suchen und dir bei Aufgaben helfen, die den Inhalt deiner Ordner kennen.
Schritt 4: Probiere einen Community-Server. Die MCP GitHub-Organisation hat Referenzserver für GitHub, Google Drive, Slack und mehr. Jeder hat Installationsanweisungen in der README.
Bist du Entwickler, kannst du deinen eigenen MCP-Server mit den offiziellen SDKs in TypeScript, Python, C#, Java, Kotlin, Go oder Ruby bauen. Ein einfacher Server mit einem Tool braucht etwa 50 Codezeilen.
MCP vs Function Calling vs RAG
Drei Begriffe, die oft verwechselt werden:
Function Calling ist der API-Mechanismus, der ein AI-Modell erlaubt, eine spezifische Funktion aufzurufen — OpenAIs Function Calling, Anthropics Tool Use, Googles Function Calling. Das sind herstellerspezifische Implementierungen. MCP sitzt darüber als Protokollschicht. MCP sagt dem Modell, welche Tools existieren; Function Calling ist, wie das Modell sie aufruft.
RAG (Retrieval-Augmented Generation) ist eine Technik, um AI-Antworten zu verbessern, indem relevante Dokumente vor der Generierung abgerufen werden. MCP-Resources können RAG bedienen — ein Server kann relevante Dokumente für die AI liefern. Aber MCP unterstützt auch Aktionen (Tools) und Vorlagen (Prompts), was RAG nicht abdeckt.
In der Praxis nutzen die meisten modernen AI-Systeme alle drei: MCP für die Integrationsschicht, Function Calling für den Aufrufmechanismus und RAG für Wissensabruf. Sie ergänzen sich, konkurrieren nicht.
Häufig gestellte Fragen
Funktioniert MCP nur mit Claude?
Nein. MCP ist modell-unabhängig. OpenAI, Google und viele Open-Source-Projekte unterstützen es. Es ist ein universeller Standard, kein Anthropic-exklusives Feature.
Muss ich programmieren, um MCP zu nutzen?
Nein. Nutzt du Claude Desktop oder eine andere MCP-kompatible App, kannst du vorgefertigte MCP-Server über die Einstellungen hinzufügen, ohne Code zu schreiben. Programmieren brauchst du nur, wenn du deinen eigenen Server bauen willst.
Ist MCP sicher?
MCP unterstützt Authentifizierung und eingeschränkte Berechtigungen, aber Sicherheit hängt von der Server-Implementierung ab. Verbinde nur vertrauenswürdige MCP-Server, besonders solche mit Zugriff auf sensible Daten. Das Protokoll lässt dich steuern, was jeder Server erreichen kann.
Wird MCP APIs ersetzen?
Nein. MCP umhüllt APIs, um sie für AI-Modelle zugänglich zu machen. Deine bestehenden REST- und GraphQL-APIs bedienen weiterhin menschliche Clients und traditionelle Apps. MCP fügt eine AI-freundliche Schicht obendrauf.
---MCP wird leise zur wichtigsten Infrastruktur in der AI. Nutzt du AI-Tools täglich, profitierst du wahrscheinlich schon davon, ohne es zu wissen. Je mehr Server starten und Apps den Standard übernehmen, desto leistungsfähiger werden die AI-Tools, die du nutzt — nicht weil die Modelle schlauer wurden, sondern weil sie endlich mit der realen Welt verbinden können.
Willst du sehen, was AI mit echten Tools kann? Probiere unseren kostenlosen Prompt Optimizer — er nutzt strukturierte Prompts, um jeden ChatGPT-, Claude- oder Gemini-Prompt in Sekunden zu verbessern.
--- 📬 Noch mehr davon? Wir veröffentlichen wöchentlich einen praktischen AI-Guide — kein Hype, nur Workflows und Tools, die funktionieren. Kostenlos abonnieren → ---Hinweis: Einige Links in diesem Artikel sind Affiliate-Links. Wir empfehlen nur Tools, die wir persönlich getestet und regelmäßig nutzen. Siehe unsere vollständige Offenlegung.