MCP-Server erklärt: So verbinden Sie KI mit Ihren Geschäftstools

MCP-Server erklärt: So verbinden Sie KI mit Ihren Geschäftstools

MCP-Server sind die Schicht, die KI-Agenten mit Ihren tatsächlichen Geschäftsdaten verbindet — CRMs, ERPs, Datenbanken, interne APIs. So funktionieren sie, mit konkreten Beispielen.

Von Silverthread Labs··wie MCP-Server funktionieren·Model Context Protocol Geschäftstools·KI mit CRM verbinden MCP

MCP-Server erklärt: So verbinden Sie KI mit Ihren Geschäftstools

Was ein MCP-Server tatsächlich ist#

Das Problem, das er löst: KI-Agenten, die denken können, aber nicht handeln#

Ein KI-Agent, der denken kann, aber keinen Zugriff auf Ihre tatsächlichen Daten hat, ist nützlich für allgemeine Aufgaben — und nicht viel mehr. Geben Sie ihm Zugriff auf Ihr CRM, Ihre Datenbank, Ihre internen APIs, und plötzlich ist er nützlich für Arbeit, die wirklich zählt.

Bevor es MCP gab, erforderte die Anbindung eines KI-Agenten an ein Geschäftstool eine individuelle Integration für jedes einzelne: API-Dokumentation durcharbeiten, Connector schreiben, Authentifizierung einrichten, Ausgabe so formatieren, dass das Modell damit arbeiten kann. Multiplizieren Sie das mit jedem Tool in Ihrem Stack und Sie haben ein ernsthaftes Wartungsproblem. Die meisten Teams, die KI-Workflows aufbauen, kennen dieses Gefühl.

MCP (Model Context Protocol) ersetzt diese werkzeugspezifische Integrationsarbeit durch einen Standard. Bauen Sie einen MCP-Server pro Tool, und jeder MCP-kompatible Agent kann ihn nutzen.

Die Definition in einem Satz#

Ein MCP-Server ist ein Programm, das Ihre Geschäftstools (CRMs, Datenbanken, ERPs, interne APIs) über ein standardisiertes Protokoll für KI-Agenten zugänglich macht, sodass die KI Daten auslesen und Aktionen auslösen kann — ohne individuellen Integrationscode pro Tool.

Vom Anthropic-Protokoll zur offenen Infrastruktur#

Anthropic hat MCP im November 2024 vorgestellt. Bis zum 9. Dezember 2025 hatten sie es an die Agentic AI Foundation (AAIF) unter der Linux Foundation übergeben, mitgegründet mit OpenAI und Block, mit AWS, Google, Microsoft, Cloudflare und Bloomberg als Platinum-Mitgliedern (Linux Foundation, Dezember 2025).

Das ist ein bedeutsamer Schritt. Ein Protokoll, das von einem einzelnen KI-Labor kontrolliert wird, ist eine Wette auf dieses Labor. Ein Protokoll, das von einer Einrichtung der Linux Foundation mit dieser Mitgliederliste verwaltet wird, hat eine deutlich höhere Wahrscheinlichkeit, in fünf Jahren noch relevant zu sein. Ob die Governance-Struktur ihrem Versprechen gerecht wird, ist eine andere Frage, aber die branchenübergreifende Unterstützung ist real. Stand Dezember 2025 umfasst das Ökosystem über 10.000 veröffentlichte Server und 97 Millionen monatliche SDK-Downloads über Python und TypeScript hinweg (Anthropic / Linux Foundation, Dezember 2025). Claude Agent SDK, OpenAI Agents SDK, Google ADK und LangGraph unterstützen es alle.


Tools, Resources und Prompts#

Jeder MCP-Server stellt eine Kombination aus drei Grundtypen bereit.

Tools: Aktionen, die die KI auslösen kann#

Tools sind aufrufbare Funktionen. Die KI sendet eine Anfrage mit Parametern, der Server führt sie aus und gibt das Ergebnis zurück.

Beispiele:

  • create_contact(name, email, company) -- erstellt einen Datensatz in Ihrem CRM
  • run_query(sql) -- führt eine SQL-Abfrage aus und gibt Ergebnisse zurück
  • send_message(channel, text) -- postet in einen Slack-Kanal
  • create_issue(title, body, labels) -- erstellt ein Issue in Ihrem Projekttracker

Tools sind das Mittel, mit dem der Agent handelt. Ohne sie kann der Agent nur denken.

Resources: Daten, die die KI lesen kann#

Resources stellen Daten bereit, die die KI in ihren Kontext laden und analysieren kann. Im Gegensatz zu Tools führen sie keine Aktion aus; sie liefern Informationen.

Beispiele:

  • Produktdokumentation, damit die KI beim Programmieren darauf verweisen kann
  • Kundenkontodaten, die ein Support-Agent vor der Antwort einsehen kann
  • Ein Datenbankschema, damit die KI die Struktur kennt, bevor sie Abfragen schreibt
  • Interne Wikis oder Besprechungsnotizen für Recherche-Workflows

Wenn Tools das Mittel sind, mit dem der Agent handelt, dann sind Resources die Art, wie er erfährt, was stimmt, bevor er entscheidet, was zu tun ist.

Prompts: Vorlagen für bestimmte Workflows#

Prompts sind vordefinierte Vorlagen, die die KI durch eine bestimmte Aufgabe führen. Sie werden von den dreien am wenigsten diskutiert, sind aber nützlich, um wiederkehrende Workflows vorhersehbar zu machen. Ein MCP-Server für ein Support-Tool könnte beispielsweise eine handle_refund_request-Vorlage enthalten, die festlegt, welche Daten zu prüfen sind, welche Richtlinie gilt und wie die Antwort formatiert werden soll.


So funktioniert die Interaktion im Detail#

Die Schleife zwischen einem Agenten und einem MCP-Server ist es wert, genauer betrachtet zu werden, denn hier entstehen in der Praxis die meisten interessanten Fragen.

Wenn die Host-Anwendung startet (Claude Code, ein individuelles Agent-Framework, was auch immer Sie nutzen), verbindet sie sich mit den konfigurierten MCP-Servern. Der Server sendet sofort ein Capability-Manifest zurück: hier sind meine Tools, hier sind meine Resources, hier sind meine Prompt-Vorlagen. Der Agent liest das und weiß, was er tun kann.

Von dort aus, wenn der Agent an einer Aufgabe arbeitet und Daten benötigt oder handeln muss, analysiert er das Manifest und wählt das passende Tool oder die passende Resource. Das ist keine fest einprogrammierte Logik; das LLM-Backbone des Agenten liest die Tool-Beschreibungen und entscheidet, was aufgerufen werden soll. Es sendet eine Anfrage mit Parametern, der Server führt die Operation gegen das zugrunde liegende System aus (die Datenbank, die API, die Datei) und gibt eine strukturierte Antwort zurück, mit der das Modell arbeiten kann.

Diese Schleife kann innerhalb einer einzelnen Aufgabe mehrfach durchlaufen werden. Ein Recherche-Workflow könnte ein Such-Tool aufrufen, Ergebnisse lesen, ein Notiz-Tool aufrufen, bestehende Notizen prüfen, entscheiden, was ergänzt werden soll, und das Update schreiben — alles bevor der Benutzer etwas sieht. In der Praxis wird es unübersichtlich, wenn Tools fehlschlagen, unerwartete Daten zurückgeben oder wenn der Agent das Falsche aufruft und zurückrudern muss. MCP löst diese Probleme nicht; es bedeutet nur, dass Sie damit über eine standardisierte Schnittstelle arbeiten statt über eine maßgeschneiderte.


Praxisbeispiele: So verbindet MCP KI mit Geschäftstools#

CRM-Integration: Salesforce und HubSpot#

HubSpot hat seine produktionsreife MCP-Integration im Juni 2025 gestartet und ermöglicht KI-Clients, Live-CRM-Daten in natürlicher Sprache abzufragen. Salesforce folgte mit gehosteten MCP-Servern in der Beta bis Oktober 2025 (HubSpot / Salesforce, 2025).

Mit einer dieser Integrationen kann ein KI-Agent die vollständige Kontohistorie eines Kontakts vor einem Anruf einsehen, Datensätze aus Besprechungsnotizen erstellen oder aktualisieren, Deal-Pipeline-Daten in einen Wochenbericht einbeziehen oder nach Konten suchen, die bestimmte Kriterien erfüllen, ohne dass der Benutzer manuell Filter erstellen muss.

Der entscheidende Punkt: Die KI muss die API des CRM nicht im Voraus kennen. Sie liest das Manifest bei der Verbindung, ermittelt, was verfügbar ist, und formatiert die Aufrufe selbst. Sie beschreiben, was Sie wollen; die KI findet heraus, wie sie danach fragen muss.

ERP-Integration: Dynamics 365#

Microsoft hat auf der Build 2025 einen Dynamics 365 MCP-Server vorgestellt, der KI-Agenten Zugriff auf Buchungseinträge, Transaktionsvalidierung und KPIs über die Module Finance, Supply Chain und HR gibt — ohne individuellen Integrationscode (Microsoft, November 2025).

Für Finanzteams ist das der interessante Anwendungsfall: ein Agent, der KPIs abrufen, Abweichungsanalysen erstellen und Auffälligkeiten in Finanzdaten markieren kann — ohne dass jemand SQL-Abfragen ausführen oder sich durch die Dynamics-Oberfläche klicken muss, um die Zahlen zu extrahieren.

Datenbank-Integration#

Datenbank-MCP-Server sind derzeit wahrscheinlich am weitesten verbreitet, und der Anwendungsfall ist direkt nachvollziehbar. Ein mittelständisches E-Commerce-Unternehmen hat MCP mit seiner PostgreSQL-Datenbank verbunden und die Berichterstellung von zwei Tagen auf zwei Minuten reduziert (DEV Community / Unified.to, 2025).

Das Grundsetup stellt ein run_query-Tool sowie Schema-Explorations-Tools wie list_tables und describe_table bereit. Der Agent kann Fragen in natürlicher Sprache beantworten, SQL gegen das tatsächliche Schema generieren und formatierte Berichte erstellen. Die Schema-Tools sind wichtiger, als es klingt: Ein Agent, der das reale Schema inspizieren kann, schreibt deutlich bessere Abfragen als einer, der mit Dokumentation arbeitet, die möglicherweise Monate veraltet ist.

AAA Washington hat einen Agentforce-Agenten auf Salesforce MCP-Servern eingesetzt und die durchschnittliche Bearbeitungszeit pro Anruf um 40 % gesenkt, während 85 % der Anfragen ohne menschliches Eingreifen gelöst wurden (Salesforce, 2025).

Interne Tools ohne fertigen Server#

Die nützlichsten Tools in jedem Unternehmen sind in der Regel diejenigen, für die niemand einen öffentlichen Connector gebaut hat: ein proprietäres Auftragsverwaltungssystem, ein intern entwickeltes Ticketing-Tool, eine eigene Analytics-Plattform. Diese erfordern individuelle MCP-Server, daran führt kein Weg vorbei.

Der Aufwand ist dennoch geringer als bei einer maßgeschneiderten KI-Integration, da das Protokoll Discovery, Transport und Antwortformatierung übernimmt. Sie schreiben die Geschäftslogik: welche Tools bereitgestellt werden, welche Daten zugänglich gemacht werden, was der Agent verändern darf. Das Protokoll übernimmt den Rest. Allerdings sind „weniger Aufwand als früher" und „einfach" nicht dasselbe, besonders wenn Authentifizierung und Zugriffssteuerung hinzukommen.


MCP vs. Standard-API-Integration#

Drei echte Unterschiede, nicht drei erfundene Kategorien.

Der erste ist Discovery. Eine Standard-Integration erfordert fest einprogrammierte Logik, die der KI sagt, welche Tools existieren und wie sie zu verwenden sind. Ändert sich die API, aktualisieren Sie den Integrationscode. Bei MCP teilt der Server seine Fähigkeiten dynamisch bei der Verbindung mit. Fügen Sie dem Server ein neues Tool hinzu, und der Agent weiß beim nächsten Verbindungsaufbau davon.

Der zweite ist die Ausgabeformatierung. API-Antworten sind für Anwendungen konzipiert. Rohes CRM-JSON ist korrekt, aber nicht so aufbereitet, dass ein Modell gut damit arbeiten kann. MCP-Server können Antworten explizit für die KI-Verarbeitung formatieren: strukturiert, beschriftet, mit Kontext darüber, was die Daten bedeuten. Der Unterschied zeigt sich darin, wie zuverlässig das Modell über das Ergebnis schlussfolgt.

Der dritte ist Wartung. Jede individuelle Integration ist ihre eigene technische Schuld. Sie muss aktualisiert werden, wenn sich die API ändert, wenn sich die Authentifizierungsmethode ändert, wenn das Agent-Framework aktualisiert wird. MCP-Server trennen die Tool-Implementierung vom Agenten. Aktualisieren Sie den Server, wenn sich die zugrunde liegende API ändert; aktualisieren Sie das Agent-Framework, wenn sich die KI-Plattform ändert. Beide entwickeln sich in ihrem eigenen Rhythmus.


Wann ein fertiger Server reicht — und wann nicht#

Für Standard-SaaS-Tools (Salesforce, HubSpot, GitHub, Slack, Google Workspace, Jira, Linear, Postgres, MySQL) gibt es Community- oder Anbieter-Server. Die offiziellen @modelcontextprotocol/-Pakete von Anthropic decken viele gängige Integrationen ab. Prüfen Sie die Registry, bevor Sie selbst bauen.

Eigenentwicklungen sind notwendig für alles, was Ihr Unternehmen intern gebaut hat, für stark angepasste SaaS-Deployments oder für Datensysteme mit proprietärem Schema. Ein generischer Salesforce-Connector kennt Standard-Objekte und -Felder. Wenn Ihre Salesforce-Instanz 40 benutzerdefinierte Felder, Custom Objects und prozessspezifische Datensatztypen hat, weiß der generische Server nichts davon.

Was Produktion tatsächlich erfordert#

Einen MCP-Server für eine Demo zum Laufen zu bringen, dauert ein paar Stunden. Einen zuverlässig in Produktion zu betreiben, mit echten Benutzern und echten Konsequenzen bei Fehlfunktion, ist ein anderes Projekt.

Authentifizierung ist aufwendiger, als es aussieht. Sie brauchen Credential-Rotation, OAuth-Flows für benutzerspezifische Authentifizierung und einen sauberen Umgang mit ablaufenden Tokens. Zugriffssteuerung lässt sich leicht falsch umsetzen: Standardmäßig sollte Ihr Agent keinen Schreibzugriff auf alles in Ihrem CRM haben, und der gewährte Umfang muss klar dokumentiert sein, damit Sie wissen, was jeder Workflow tatsächlich verändern kann.

Fehlerbehandlung ist der Punkt, an dem die meisten Eigenentwicklungen scheitern. Was passiert, wenn die API einen 500er zurückgibt? Bei einem Timeout? Wenn sich das Antwortformat geringfügig ändert? Der Agent muss damit umgehen, ohne in Endlosschleifen zu geraten, still zu versagen oder auf Basis veralteter Daten falsch zu handeln.

Sicherheit verdient ernsthafte Beachtung. Forscher identifizierten im April 2025 aktive Risiken: Prompt Injection über Tool-Beschreibungen, zu weit gefasste Berechtigungen und Lookalike-Tool-Substitutionsangriffe (Zuplo MCP Security Report, 2025). Diese Risiken betreffen hauptsächlich Eigenentwicklungen mit Zugriff auf sensible Daten, nicht Standard-Server. Aber wenn Sie einen MCP-Server bauen, der Kundendaten berührt oder Finanzeinträge verändern kann, müssen Sie das Bedrohungsmodell durchdenken.

Silverthread Labs baut produktionsreife MCP-Server für Teams, die KI-Agenten mit internen Tools verbinden. Wenn Sie ein System haben, das für Ihre KI-Workflows erreichbar sein muss und kein öffentlicher Server es abdeckt, melden Sie sich über die Audit-Seite, um zu besprechen, was der Aufbau umfassen würde.


Häufig gestellte Fragen#

Was ist ein MCP-Server und was macht er?

Ein MCP-Server ist ein Programm, das Ihre Geschäftstools über ein standardisiertes Protokoll für KI-Agenten zugänglich macht. Er bietet der KI eine einheitliche Möglichkeit zu erkennen, was ein Tool kann, seine Funktionen aufzurufen und seine Daten zu lesen — ohne individuellen Integrationscode pro Tool. Der Agent verbindet sich beim Start mit dem Server, liest sein Capability-Manifest und kann dann dessen Tools und Resources während der Aufgabenbearbeitung nutzen.

Wie verbinden MCP-Server KI mit einem CRM oder einer Datenbank?

Ein MCP-Server umhüllt Ihr CRM oder Ihre Datenbank mit dem MCP-Protokoll. Er stellt bestimmte Operationen als Tools bereit (z. B. query_contacts, create_deal) und Daten als Resources (z. B. den Kontodatensatz für ein bestimmtes Unternehmen). Wenn der KI-Agent CRM-Daten benötigt oder einen Datensatz erstellen muss, ruft er das entsprechende Tool über den MCP-Server auf, der den eigentlichen API-Aufruf oder die SQL-Abfrage ausführt und ein strukturiertes Ergebnis zurückgibt.

Was ist der Unterschied zwischen MCP und einer regulären API-Integration?

Eine Standard-API-Integration erfordert fest einprogrammierte Logik, die der KI genau sagt, was verfügbar ist und wie es aufzurufen ist. MCP-Server teilen ihre Fähigkeiten bei der Verbindung mit, formatieren Antworten für die KI-Verarbeitung und können unabhängig vom Agent-Framework aktualisiert werden. Die praktischen Vorteile sind weniger Wartungsaufwand und zuverlässigeres Schlussfolgern des Modells über die zurückgegebenen Daten.

Welche Geschäftstools unterstützen das Model Context Protocol?

Stand Anfang 2026: Salesforce, HubSpot, Microsoft Dynamics 365, GitHub, Slack, Google Workspace, Jira, Linear, PostgreSQL, MySQL, MongoDB und viele weitere über Community-Server. Die @modelcontextprotocol/-Paket-Registry und das Community-Ökosystem decken Hunderte von Integrationen ab. Tools ohne öffentlichen Server erfordern Eigenentwicklungen.

Brauche ich einen individuellen MCP-Server oder reicht ein fertiger?

Für populäre SaaS-Tools in Standardkonfigurationen ist ein fertiger Server für den Einstieg in der Regel ausreichend. Für interne Tools, stark angepasste SaaS-Deployments oder Workflows, die eine spezifische Datenverarbeitung oder Zugriffssteuerung benötigen, die über die Möglichkeiten eines generischen Servers hinausgehen, brauchen Sie eine Eigenentwicklung. Der Praxistest: Stellt der fertige Server tatsächlich die Daten und Aktionen bereit, die Ihr Workflow benötigt, oder bietet er eine Standardauswahl, die an dem vorbeigeht, was für Sie relevant ist?

Zuletzt aktualisiert: March 16, 2026

[ So funktioniert es ]

Kostenloses Automatisierungs-Audit

Wir finden die 20 % Ihrer manuellen Arbeit, die Sie am meisten kosten — und zeigen Ihnen genau, wie Sie diese eliminieren.

SCHRITT 1.0
Sagen Sie uns, wo es hakt

Sagen Sie uns, wo es hakt

Ein 30-minütiges Gespräch. Führen Sie uns durch Ihren Arbeitsalltag — wir finden die Engpässe, die Sie längst nicht mehr bemerken.

SCHRITT 2.0
Wir bewerten die Chancen

Wir bewerten die Chancen

Wir bewerten jede Möglichkeit nach Wirkung und Aufwand, damit Sie sehen, wo KI am meisten Zeit und Geld spart.

SCHRITT 3.0
Sie erhalten Ihren Fahrplan

Sie erhalten Ihren Fahrplan

Eine priorisierte Roadmap, die Sie sofort umsetzen können. Mit uns oder auf eigene Faust — sie gehört Ihnen.