LLM

Transparens är centralt för oss på Intric. När du interagerar med en assistent i vår plattform finns specifika processer för att säkerställa din integritet och datasuveränitet.

Processen från din fråga till ett färdigt svar sker genom en säker interaktion mellan Intrics plattform (där din data hanteras) och den LLM-leverantör du valt (t.ex. Berget eller Airon).

Steg-för-steg: Så hanteras din data

Steg 1 — Användare interagerar med Intric i webbläsaren

Användaren skriver ett meddelande till en assistent (input i prompten).

Data som skickas till Intrics server:

  • Användarens meddelande
  • Chatthistorik
  • Eventuella bifogade filer

Allt innehåll skickas över en krypterad anslutning från din webbläsare till Intrics servrar.

1 / 4

Datadelning och integritet

För att skydda din och din organisations integritet tillämpar vi principen om dataminimering. Det innebär att LLM-leverantören endast får tillgång till det innehåll som är absolut nödvändigt för att utföra uppgiften—ingen användaridentitet lämnar någonsin din infrastruktur.

I tabellen nedan ser du exakt vilken data som skickas till LLM:en och vad som hålls helt privat.

Detta skickas till LLM:enDetta skickas INTE till LLM:en
Användarens exakta prompt/frågaAnvändar-ID, användarnamn eller namn
Systemprompt / instruktionerE-postadresser eller IP-adresser
Hämtad relevant information från Kunskap eller Verktyg som assistenten har tillgång tillAutentiseringstokens
Databas-ID:n

Datalagring och gallring

Historik över användarens interaktion med assistenter i Intric hanteras på två olika ställen beroende på vilken typ av assistent det är:

  • Personlig assistent konfigureras av Admin för hela organisationen
  • Assistenter i Spaces konfigureras av Creator per assistent
🔍 Läs mer på artikeln Datalagringspolicy för assistenter

Metadatan om hur användare interagerar med assistenter lagras under en längre tid och är tillgänglig för administratörer.

🔍 Läs mer på artikeln Granskningslogg

Sammanfattning

När du kommunicerar med en LLM via Intric förblir din identitet helt privat. All användarmetadata hanteras lokalt och lämnar aldrig din kontroll. Den valda LLM-leverantören ser endast den isolerade text som krävs för att generera ett användbart svar. Intric har dessutom strikta nolldatalagringsklausuler i alla våra avtal med LLM-leverantörer. Det garanterar att dina prompter och de genererade svaren varken sparas av leverantören eller används för att träna deras AI-modeller.