MCP-Server
Transparenz ist für uns bei Intric zentral. Wenn ein Assistent ein externes Tool über MCP (Model Context Protocol) verwendet, sorgen spezifische Prozesse dafür, dass du vollständige Einblicke in die Daten hast, die die Plattform verlassen und wohin sie gehen.
Der Prozess von deiner Frage bis zu einer Antwort, die Tool-Ergebnisse enthält, findet im Austausch zwischen der Intric-Plattform, dem für den Assistenten gewählten Sprachmodell, dem MCP-Server und den Datenquellen, die das Tool verwendet, statt. Intric agiert stets als Vermittler — das Sprachmodell kontaktiert den MCP-Server nie direkt.
Schritt für Schritt: So werden deine Daten verarbeitet
Alle Übertragungen zwischen Intric und seinen Unterauftragsverarbeitern erfolgen über sichere, verschlüsselte Verbindungen.
Schritt 1 — Nutzer interagiert mit Intric im Browser
Der Nutzer schreibt eine Nachricht an einen Assistenten, der ein oder mehrere MCP-Tools konfiguriert hat.
Daten, die an Intrics Server gesendet werden:
- Die Nachricht des Nutzers
- Chatverlauf
- Eventuelle Anhänge
Schritt 2 — Intric ruft das vom Assistenten gewählte Sprachmodell auf
In diesem Schritt werden relevante Inhalte von Intrics Servern an das vom Assistenten gewählte Sprachmodell gesendet.
Was beim Sprachmodell passiert: Das Modell stellt fest, dass ein Tool verwendet werden soll.
Überlegung (Beispiel): “Der Nutzer möchte Informationen aus Eurostat verwenden; ich muss sie zuerst abrufen.”
Antwort: Das Modell sendet eine Anfrage an Intric, das Eurostat-Tool zu verwenden, mit einem vorgeschlagenen Suchbegriff.
Schritt 3 — Intric ruft den MCP-Server auf
Intrics Server empfängt die Antwort des Sprachmodells mit einer Anfrage, das Tool aufzurufen. Intric überprüft, ob das Tool existiert und ob der Aufruf zulässig ist, und leitet dann einen Aufruf an den MCP-Server weiter mit dem, was das Sprachmodell vorgeschlagen hat.
Daten, die von Intrics Server gesendet werden:
- Tool-Name und Tool-Argumente (vom LLM generiert)
Welche Daten gesendet werden, hängt von den Argumenten ab, die der LLM generiert hat — diese basieren auf der Frage des Nutzers und der Beschreibung des Tools. Der LLM kontaktiert den MCP-Server nie direkt; die gesamte Kommunikation läuft über Intrics Backend.
Schritt 4 — MCP-Server ruft Daten aus der Datenquelle ab
Der MCP-Server empfängt die Anfrage und ruft die Datenquelle(n), mit denen das Tool verbunden ist, auf, um die benötigten Informationen abzurufen. Die Datenquelle kann z. B. eine Datenbank, eine API oder ein Dokumentenarchiv sein.
Was passiert:
- Der MCP-Server sendet eine Anfrage an die Datenquelle mit den erforderlichen Parametern.
- Die Datenquelle gibt eine Antwort an den MCP-Server zurück.
Schritt 5 — Antwort vom MCP-Server an Intric
Der MCP-Server verarbeitet die Antwort der Datenquelle und sendet das Ergebnis zurück an Intrics Server.
Daten, die vom MCP-Server an Intric gesendet werden:
- Das Ergebnis der Datenquellenabfrage
Schritt 6 — Intric verarbeitet die Antwort mit dem Sprachmodell
Intric sendet das Tool-Ergebnis und den erforderlichen Kontext an das vom Assistenten gewählte Sprachmodell, damit das Modell eine Antwort an den Nutzer formulieren kann, die sowohl auf der ursprünglichen Frage als auch auf dem über den MCP-Server Abgerufenen basiert.
Daten, die von Intrics Server an den LLM gesendet werden (zweiter Aufruf):
- Der ursprüngliche Prompt und der Gesprächsverlauf
- Das Tool-Ergebnis
Was beim Sprachmodell passiert: Das Modell verarbeitet das Ergebnis und sendet eine Antwort zurück an Intric.
Sowohl der Aufruf an das Sprachmodell als auch die Antwort zurück an Intric werden im selben Schritt im Diagramm angezeigt.
Schritt 7 — Nutzer sieht die Antwort im Browser
Die Antwort wird dem Nutzer in Intric im Browser angezeigt.
Daten, die auf Intrics Servern gespeichert werden:
- Die generierte Antwort und der Verlauf der Interaktion des Nutzers mit dem Assistenten (gemäß den Löscheinstellungen des Assistenten)
- Metadaten über Tool-Aufrufe und Ergebnisse im Gesprächsverlauf
Datenaustausch und Privatsphäre
Zum Schutz deiner und der Privatsphäre deiner Organisation wenden wir das Prinzip der Datenminimierung an. Das bedeutet, der Unterauftragsverarbeiter erhält nur Zugriff auf den Inhalt, der für die Aufgabenerfüllung absolut notwendig ist — keine Benutzeridentität verlässt je deine Infrastruktur.
Bei der Verwendung von MCP-Tools gibt es zwei separate Datenschutzüberlegungen — Daten werden sowohl an den LLM als auch an den MCP-Server gesendet. Intric wendet das Prinzip der Datenminimierung in beiden Fällen an, aber es ist wichtig zu verstehen, dass der Datenschutz bei MCP-Aufrufen davon abhängt, wo der MCP-Server gehostet wird.
In der folgenden Tabelle siehst du genau, welche Daten an jeden externen Dienst gesendet werden und was vollständig privat bleibt.
| An externen Dienst gesendet | Nicht an externen Dienst gesendet |
|---|---|
|
|
Wenn der MCP-Server ein Drittanbieterdienst ist, können als Tool-Argumente gesendete Daten deinen Zuständigkeitsbereich verlassen. Welche Daten tatsächlich gesendet werden, hängt von den Argumenten ab, die der LLM generiert — diese basieren auf der Frage des Nutzers und der Parameterdefinition des Tools.
Datenspeicherung und -löschung
Intric speichert den Gesprächsverlauf — einschließlich Tool-Aufrufe und deren Ergebnisse — auf die gleiche Weise wie andere Assistenten-Interaktionen. Die Speicherung erfolgt auf Intrics Servern in Schweden.
- Gesprächsverlauf einschließlich Tool-Aufrufe und Ergebnisse wird durch die konfigurierten Löscheinstellungen des Assistenten geregelt
- Der MCP-Server kontrolliert seine eigene Speicherung — Intric hat keine Kontrolle darüber, was der externe Dienst protokolliert oder speichert
- Der LLM-Anbieter hat Null-Datenspeicherungs-Klauseln in Intrics Verträgen und speichert weder Prompts noch Antworten
Metadaten darüber, wie Nutzer mit Assistenten interagieren, werden für einen längeren Zeitraum gespeichert und sind für Administratoren zugänglich.