AI-modellvy och säkerhetsklassificeringar
Definiera hierarkiska säkerhetsklasser och tilldela AI-modeller till varje klass
Planera hantering av olika datatyper och intern kommunikation om säkerhet
Diskussion av organisatoriska krav
Granska och slutför PUB-avtal vid behov
Bygg en grund av tillit genom tydliga säkerhetsklassificeringar som ger alla trygghet i var och hur AI får användas
Skapa en trygg grund för innovation genom att visa exakt vilken data som får användas var, så att era team kan säga "ja" till AI
Skapa olika "rum" för olika användningsfall – arbeta säkert med offentlig data i ett Space, känslig data i ett annat
Konfigurera ramverket en gång som administratörer, så att användarna inte behöver tänka på regelefterlevnad – det är inbyggt i plattformen
Olika processer har olika krav på funktionalitet, integrationer och säkerhet. I Intric kan ni skapa olika Spaces som fungerar som olika rum. Säkerhetsklasser skapar olika regler för dessa rum.
Högsta klass överst: Sverige → EU → Öppen. Modeller som tillåts i en högre klass är automatiskt tillgängliga i lägre klasser, men inte tvärtom.
Som administratörer sätter vi reglerna. Era användare arbetar helt enkelt i rätt rum för sin uppgift – regelefterlevnaden är automatisk.
Tänk kort och lång sikt:
Om ni endast tillåter "Öppen information", se till att säkerhetsklassens etikett tydligt informerar användarna om denna begränsning (t.ex. "Endast öppen data").
Målet är inte att blockera AI-användning – det är att ge tydliga, säkra vägar framåt. Ge IT och juridik verktygen att säga "ja" till specifika användningsfall.
Intric tillhandahåller omfattande vägledning och stöddokumentation för PUB så att den juridiska granskningen blir enkel.
Säkerhetsklassificeringar är er primära riskkontroll – de säkerställer att data endast behandlas av lämpliga AI-modeller i lämpliga sammanhang.