LLM
Transparens är centralt för oss på Intric. När du interagerar med en assistent i vår plattform finns specifika processer för att säkerställa din integritet och datasuveränitet.
Processen från din fråga till ett färdigt svar sker genom en säker interaktion mellan Intrics plattform (där din data hanteras) och den LLM-leverantör du valt (t.ex. Berget eller Airon).
Steg-för-steg: Så hanteras din data
Steg 1 — Användare interagerar med Intric i webbläsaren
Användaren skriver ett meddelande till en assistent (input i prompten).
Data som skickas till Intrics server:
- Användarens meddelande
- Chatthistorik
- Eventuella bifogade filer
Allt innehåll skickas över en krypterad anslutning från din webbläsare till Intrics servrar.
Steg 2 — Intric bearbetar användarens meddelande
Innehållet i meddelandet behandlas av Intric innan något skickas vidare till språkmodellen. I detta steg samlar Intric in relevant kontext, lägger till instruktioner och rensar bort all identifierande metadata innan det skickas vidare.
Inget lämnar Intrics server i det här steget — all bearbetning sker internt på plattformen innan eventuellt utgående anrop till LLM.
Steg 3 — Intric anropar assistentens valda språkmodell
I detta steg skickas relevant innehåll från Intrics servrar till assistentens valda språkmodell.
Data som skickas från Intrics server:
- Promptinnehållet (användarens meddelande)
- Relevant information hämtad från bilagor, Kunskap eller Verktyg
Vad som händer hos språkmodellen: Ett svar genereras utifrån enbart den information som tillhandahållits. Språkmodellen har noll kontext om användarens eller organisationens identitet.
Steg 4 — Användaren ser svaret i webbläsaren
Språkmodellens svar skickas till Intrics server. Intrics server tar emot resultatet från språkmodellen och visar sedan svaret för användaren i webbläsaren.
Data som skickas från språkmodellen till Intric:
- Språkmodellens genererade svar
Omedelbart efter att svaret skickats tillbaka till Intric raderar LLM-leverantören både användarens input och det genererade svaret.
Data som lagras på Intrics servrar:
- Det generererade svaret och den historik som finns i användarens interaktion med assistenten
- Metadata om vem som skickade frågan
Datadelning och integritet
För att skydda din och din organisations integritet tillämpar vi principen om dataminimering. Det innebär att LLM-leverantören endast får tillgång till det innehåll som är absolut nödvändigt för att utföra uppgiften—ingen användaridentitet lämnar någonsin din infrastruktur.
I tabellen nedan ser du exakt vilken data som skickas till LLM:en och vad som hålls helt privat.
| Detta skickas till LLM:en | Detta skickas INTE till LLM:en |
|---|---|
| Användarens exakta prompt/fråga | Användar-ID, användarnamn eller namn |
| Systemprompt / instruktioner | E-postadresser eller IP-adresser |
| Hämtad relevant information från Kunskap eller Verktyg som assistenten har tillgång till | Autentiseringstokens |
| Databas-ID:n |
Datalagring och gallring
Historik över användarens interaktion med assistenter i Intric hanteras på två olika ställen beroende på vilken typ av assistent det är:
- Personlig assistent konfigureras av Admin för hela organisationen
- Assistenter i Spaces konfigureras av Creator per assistent
Metadatan om hur användare interagerar med assistenter lagras under en längre tid och är tillgänglig för administratörer.
Sammanfattning
När du kommunicerar med en LLM via Intric förblir din identitet helt privat. All användarmetadata hanteras lokalt och lämnar aldrig din kontroll. Den valda LLM-leverantören ser endast den isolerade text som krävs för att generera ett användbart svar. Intric har dessutom strikta nolldatalagringsklausuler i alla våra avtal med LLM-leverantörer. Det garanterar att dina prompter och de genererade svaren varken sparas av leverantören eller används för att träna deras AI-modeller.