← Zurück zur Übersicht

Warum MCP gerade so viele Diskussionen auslöst

Warum das Model Context Protocol aktuell so viel Diskussion auslöst und wie wir bei LIVOI damit umgehen.

von P-CATIONam 04. Dezember 2025
Illustration: Warum das Model Context Protocol aktuell so viel Diskussion auslöst
Hinweis: Dieses Bild wurde mit KI generiert.

Ein Protokoll im Wandel

Das Model Context Protocol (MCP) wurde entwickelt, um KI-Modelle mit externen Werkzeugen zu verbinden. Die Grundidee ist einfach:
Ein Modell soll nicht nur Text verstehen, sondern auch Tools nutzen können, die Daten liefern, Berechnungen ausführen oder externe Systeme ansprechen.

Doch während MCP wächst, zeigt sich ein grundlegendes Problem, das nicht technischer Natur ist, sondern struktureller. Viele Menschen sehen nur die Oberfläche – Tools funktionieren, die KI antwortet – aber der eigentliche Aufwand versteckt sich im Hintergrund.

MCP wirkt elegant, erzeugt aber im System Prompt enorme Zusatzlast, weil Tool-Definitionen immer mitgeschickt werden müssen.

Warum der System Prompt überläuft

Ein KI-Modell funktioniert nur zuverlässig, wenn es genaue Informationen erhält. MCP setzt darauf, dass alle Tool-Beschreibungen, Regeln und Beispiele direkt in den System Prompt geschrieben werden. Genau dort entsteht das Kernproblem:

Je mehr Tools ein Projekt verwendet, desto mehr Prompt-Platz wird benötigt.
Der verfügbare Kontext schrumpft – und damit oft auch die Qualität der Antworten.

Man kann sich das vorstellen wie eine Tasche, die man vor jedem Gespräch füllen muss. Anfangs ist das noch überschaubar. Doch bald steckt darin:

  • die Systemanweisungen
  • jede einzelne Tool-Definition
  • Formatregeln
  • Anwendungsbeispiele
  • technische Einschränkungen

…bis irgendwann kaum noch Platz für die eigentliche Unterhaltung bleibt.

Ein weiterer, oft unterschätzter Punkt: Kosten

Da MCP immer sämtliche Tooldefinitionen bei jedem einzelnen Request mitsendet, steigt nicht nur die technische Last, sondern auch der Preis pro Anfrage.
Mehr Prompt-Token bedeuten schlicht höhere Betriebskosten – unabhängig davon, ob ein Tool im Gespräch überhaupt gebraucht wird.

Gerade bei komplexen oder umfangreichen Toolsets kann diese permanente Grundlast zu einem erheblichen Kostenfaktor werden, der die Skalierbarkeit stark beeinflusst.

Wie sich die Branche versucht zu behelfen

Inzwischen entstehen neue Ansätze, die versuchen, die wachsende Komplexität zu umgehen.
Ein Beispiel ist Anthropics Konzept der Advanced Tool Use. Dabei wird ein Teil des MCP-Problems einfach verschoben:

Das Modell bekommt nur eine kleine Info: „Es gibt Tools.“

Das Modell schreibt Code, der in einer isolierten Umgebung ausgeführt wird.

Dieser Code ruft eine Art Tool-Suchdienst auf.

Erst jetzt kommen die vollständigen Tool-Beschreibungen ins Spiel.

Die KI erhält die relevanten Daten – aber erst nach mehreren Zwischenschritten.

Das entlastet den Prompt, erweitert aber die Architektur um neue Schichten.
Ob das langfristig einfacher wird oder nur „anders komplex“, ist eine offene Frage.

Eine Übergangsphase

Die gesamte KI-Tooling-Landschaft ist momentan im Umbau. MCP ist weder falsch noch perfekt – es ist ein Teil dieses Übergangs.
Vieles entsteht gerade erst, manches wird in ein paar Monaten schon wieder anders aussehen.

Wichtig ist vor allem zu verstehen:
Die KI-Welt sucht noch nach stabilen Standards. Experimente gehören dazu.

Unser Blick bei P-CATION

Für LIVOI setzen wir auf nachhaltige technische Entscheidungen. Nachhaltigkeit bedeutet für uns auch, Architektur so zu wählen, dass sie nicht beim nächsten Trend komplett ersetzt werden muss.

Wir beobachten MCP und seine Alternativen genau – ohne voreilige Schlüsse.
Denn klar ist: Die besten Lösungen entstehen selten in Momenten des größten Umbruchs, sondern wenn sich der Staub wieder etwas gelegt hat.