AI Act
Med Intrics plattform har du stor flexibilitet och goda möjligheter till samarbete. Kommuner kan bestämma — antingen varje gång eller en gång för alla — hur mycket kontroll de vill ha över hur assistenten används och delas.
För att säkerställa att ni efterlever kraven i EU:s AI-förordning (AI Act) krävs två grundläggande bedömningar för varje assistent ni skapar:
- Vilken riskklass hamnar assistenten i?
- Vad är kommunens roll?
Baserat på dessa två bedömningar får kommunen en tydlig lista över skyldigheter. Skyldigheterna syftar till att skydda invånarnas hälsa, säkerhet och grundläggande rättigheter.
Steg för steg: Så bedömer du assistenten
Section titled “Steg för steg: Så bedömer du assistenten”Steg 1 — Beskriv användningsfallet för din assistent
Section titled “Steg 1 — Beskriv användningsfallet för din assistent”Börja med att kartlägga exakt vad assistenten ska göra i praktiken.
Frågor att ställa:
- Vad är syftet med assistenten?
- Vilka är slutanvändarna (handläggare, lärare, invånare)?
- Vilka typer av data ska den behandla?
Steg 2 — Bedöm riskklassen för användningsfallet
Section titled “Steg 2 — Bedöm riskklassen för användningsfallet”Utifrån beskrivningen bedömer du vilken riskklass assistenten faller under enligt regelverket.
Kategorier:
- Högrisk: Till exempel ärendehandläggning, tillgång till välfärdstjänster och rekrytering.
- Högrisk, men uppfyller undantagskriterierna: Utför bara en avgränsad, procedurmässig uppgift (t.ex. kvalitetssäkring av klarspråk i ett dokument) utan att fatta egna beslut.
- Inte högrisk: Användning med minimal risk tack vare tydliga avgränsningar (t.ex. enkla regeluppslag).
Steg 3 — Fastställ din roll
Section titled “Steg 3 — Fastställ din roll”Din roll avgörs av om du delar assistenten utanför din egen organisation. Det avgör var i “AI-värdekedjan” ditt ansvar ligger.
Delar du assistenten med en annan organisation?
- Nej → Idriftssättare (Deployer): Du bygger och använder assistenten uteslutande internt.
- Ja → Nedströmsleverantör (Downstream provider): Du ger en annan kommun direkt systemåtkomst till en assistent du har byggt (att bara dela en prompt i “Assistant Library” räknas inte som detta).
Steg 4 — Kartlägg skyldigheter utifrån riskklass och roll
Section titled “Steg 4 — Kartlägg skyldigheter utifrån riskklass och roll”Utifrån valen i Steg 2 och Steg 3 vet du nu exakt vilka krav som gäller för er. Gå till checklistan som passar er situation:
1. Riskklass: Vad används assistenten till?
Section titled “1. Riskklass: Vad används assistenten till?”Riskklassen avgörs av syftet med AI-assistenten. AI-förordningen delar in användningen i olika kategorier:
| Kategori | Beskrivning och typiska kommunala områden | Viktiga preciseringar och undantag |
|---|---|---|
| Högrisk | Användning inom utbildning, arbetsmarknad och rekrytering, tillgång till viktiga tjänster (inkl. välfärd) och demokratiska processer. | Undantag: Om assistenten utför en avgränsad, procedurmässig uppgift som inte utgör en risk för hälsa, säkerhet eller grundläggande rättigheter kan man åberopa undantag. |
| Inte högrisk | Användning som utgör minimal risk. Till exempel uppgifter som utför en rent avgränsad procedur, eller som inte är avsedda att ersätta eller väsentligt påverka en mänsklig bedömning. | |
| Förbjuden användning | System med oacceptabel risk för grundläggande rättigheter (t.ex. avsiktlig manipulation, social poängsättning, bedömning av en persons risk att begå brott). | I stort sett irrelevant för kommuner. |
Undantag: Så bedömer ni risk i praktiken
Section titled “Undantag: Så bedömer ni risk i praktiken”Undantag är mycket vanliga för kommunal användning av AI-assistenter. Även om en assistent används inom ett område som ursprungligen definieras som högrisk (till exempel utbildning eller välfärd) kan användningen beviljas undantag från de strängaste kraven. Det gäller särskilt om assistenten:
- Inte är avsedd att ersätta eller påverka en mänsklig bedömning.
- Är utformad för att utföra en avgränsad, procedurmässig uppgift.
Här är två typiska exempel från kommunal vardag som illustrerar att det finns många trygga och mycket användbara användningsfall som inte klassificeras som högrisk:
Exempel 1: Kvalitetssäkring av ärendehandlingar (Mänsklig bedömning behålls)
En rådgivare använder en AI-assistent för att kvalitetssäkra ärendehandlingar innan de skickas till kommunfullmäktige. AI-assistenten hänvisar till relevanta mallar och ger återkoppling på dokumenten: Den kontrollerar att tidigare ärendenummer är refererade på rätt ställe, att innehållet uppfyller minimikraven och att den skriftliga stilen uppfyller klarspråkskraven.
- Varför är detta ett undantag? AI-assistenten används bara för att förbättra kvaliteten på det arbete som handläggarna redan har gjort. Rådgivaren läser igenom återkopplingen, gör sina egna bedömningar och redigerar ärendehandlingarna manuellt innan utskick. Assistenten varken ersätter eller fattar egna beslut.
Exempel 2: Regeluppslag för skola och fritidshem (Avgränsat och procedurmässigt)
En skolchef bygger en AI-assistent baserad på kommunens egna intagningsföreskrifter, antagningsregler och prioriteringskriterier. Syftet är att kollegor enkelt ska kunna slå upp svar på procedurfrågor: Vilken dokumentation krävs vid ansökan om fritidshemsplats? Vilka är tidsfristerna? Hur är upptagningsområdenas gränser definierade?
- Varför är detta ett undantag? Även om detta rör “utbildning” utför AI-assistenten bara en avgränsad, procedurmässig uppgift — nämligen att förklara regler som redan finns på kommunens webbplats. Den gör ingen bedömning av ett enskilt barn eller ett specifikt ärende. Det är den anställde som tar informationen, bedömer den och skriver svar till föräldrarna.
2. Din roll: Delar ni assistenten?
Section titled “2. Din roll: Delar ni assistenten?”Varför spelar din roll roll?
AI-förordningen är i stor utsträckning utformad som ett produktsäkerhetsregelverk. Det innebär att ansvar och skyldigheter fördelas utifrån var organisationen befinner sig i AI-värdekedjan. Det är en medveten åtskillnad för att placera ansvaret där det bäst kan hanteras:
- Leverantörer (Providers) bär det tyngsta ansvaret och måste dokumentera att AI-systemet i sig är säkert innan det görs tillgängligt (design, teknisk dokumentation, testning, CE-märkning).
- Idriftssättare (Deployers) har ett ansvar som riktar sig mot den konkreta användningen av systemet i vardagen (säkerställa mänsklig tillsyn, följa bruksanvisningar och värna om invånarnas rättigheter).
Din roll enligt AI-förordningen avgörs i första hand av om du delar assistenten utanför din egen organisation:
- Idriftssättare (Deployer): Du är en idriftssättare om din kommun använder assistenterna uteslutande internt.
- Nedströmsleverantör (Downstream provider): Du blir en nedströmsleverantör om din kommun delar en färdigbyggd assistent med andra kommuner. (Du tar då på dig ett “Leverantörs”-ansvar för det du delar.)
- Observera: Med “delning” menas att ni ger en annan kommun tillgång till en assistent ni har byggt, och som de inte har byggt själva på plattformen. Om en annan kommun bygger sin egen assistent baserat på era instruktioner/prompts (till exempel via “Assistant Library”) räknas det inte som delning av systemet, och ni förblir idriftssättare.
3. Dina skyldigheter
Section titled “3. Dina skyldigheter”Era skyldigheter avgörs av kombinationen av riskklass (hur assistenten används) och roll (om den delas).
Här är de tre vanligaste scenarierna för kommuner. Listorna nedan beskriver de konkreta krav ni måste uppfylla före och under användning.
Scenario A: Idriftssättare + Inte högrisk
Section titled “Scenario A: Idriftssättare + Inte högrisk”Det gäller kommuner som använder egenutv ecklade assistenter uteslutande internt för lågrisksuppgifter.
Exempel på användning: Kommunen har skapat en assistent som hjälper HR-avdelningen att skriva utkast till platsannonser baserade på befintliga mallar, eller en assistent som sammanfattar långa offentliga utredningar för kommunledningen.
Det här är era skyldigheter (checklista):
- Krav på AI-kompetens: Kommunen måste säkerställa att det finns tillräcklig AI-kunskap (“AI literacy”) bland användarna. Medarbetarna måste ha tillräcklig kompetens för att använda plattformen tryggt och fatta välgrundade beslut om det innehåll Intric genererar.
Scenario B: Idriftssättare + Högrisk
Section titled “Scenario B: Idriftssättare + Högrisk”Det gäller kommuner som använder assistenter internt inom områden som definieras som högrisk.
Exempel på användning: Kommunen använder en AI-assistent som en del av en automatiserad ärendehanteringsprocess för att beräkna tilldelning av försörjningsstöd, eller för att sortera och bedöma kandidater i en rekryteringsprocess där den fattar eller väsentligt påverkar beslut om enskilda individer.
Det här är era skyldigheter (checklista):
- Mänsklig tillsyn: Säkerställ reell mänsklig tillsyn av personer med rätt befogenhet och kompetens. En människa måste alltid ha sista ordet.
- Underrättelse av anställda och fackliga representanter: Informera fackliga representanter och anställda innan systemet tas i bruk på arbetsplatsen.
- Underrättelse av invånare: Berörda personer (t.ex. sökande) ska informeras om att de är föremål för automatiserat beslutsfattande eller att AI används som beslutsstöd.
- Korrekt indata: Säkerställ att bara relevanta och ändamålsenliga data (input) matas in i assistenten.
- Användning i enlighet med anvisningar: Assistenten ska uteslutande användas i enlighet med de bruksanvisningar som leverantören (Intric) tillhandahåller.
- Övervakning och loggning: Övervaka användningen av systemet och logga händelser systematiskt.
- Registrering hos myndigheter: Systemet måste registreras i ett offentligt register hos Nasjonal kommunikasjonsmyndighet (Nkom) i Norge.
- Integritet (DPIA): Genomför en konsekvensbedömning avseende dataskydd (DPIA) om lösningen behandlar personuppgifter.
Scenario C: Nedströmsleverantör + Högrisk
Section titled “Scenario C: Nedströmsleverantör + Högrisk”Det gäller kommuner som har byggt en assistent för ett högriskområde och väljer att dela själva systemåtkomsten med andra organisationer eller kommuner.
Exempel på användning: Kommunen har byggt ett avancerat AI-verktyg för bedömning av bygglov. I stället för att bara dela receptet (prompten) ger de en grannkommun direkt systemåtkomst till assistenten via ett interkommunalt samarbete. Kommunen “levererar” därmed systemet vidare.
Det här är era skyldigheter (checklista):
- Kvalitetsstyrning: Upprätta och underhåll ett formellt kvalitetsstyrsystem för AI-assistenten.
- Riskbedömningar: Genomför och dokumentera formella riskbedömningar före och under delning.
- Datastyrning: Upprätta strikta rutiner för datahantering och datakvalitet (“Data governance”).
- Registrering hos myndigheter: Registrera assistenten som ett högrisk system hos Nkom.
- Övervakning och loggning: Implementera systematisk övervakning och loggning av hur systemet presterar och används av de andra kommunerna.