Skip to content

AI Act

Med Intrics plattform har du mye fleksibilitet og muligheter for samarbeid. Kommuner kan bestemme, enten hver gang eller én gang for alltid, hvor mye kontroll de ønsker over hvordan assistenten brukes og deles.

For å sikre at dere etterlever kravene i EUs KI-forordning (AI Act), kreves det to grunnleggende vurderinger for hver assistent dere oppretter:

  1. Hvilken risikoklasse havner assistenten i?
  2. Hva er kommunens rolle?

Basert på disse to vurderingene får kommunen en tydelig liste over forpliktelser. Forpliktelsene har som formål å beskytte innbyggernes helse, sikkerhet og grunnleggende rettigheter.

Steg for steg: Slik vurderer dere assistenten

Section titled “Steg for steg: Slik vurderer dere assistenten”

Steg 1 — Beskriv brukstilfellet av din assistent

Section titled “Steg 1 — Beskriv brukstilfellet av din assistent”

Start med å kartlegge nøyaktig hva assistenten skal gjøre i praksis.

Spørsmål å stille:

  • Hva er formålet med assistenten?
  • Hvem er sluttbrukerne (saksbehandlere, lærere, innbyggere)?
  • Hvilke typer data skal den behandle?
1 / 4

1. Risikoklasse: Hva brukes assistenten til?

Section titled “1. Risikoklasse: Hva brukes assistenten til?”

Risikoklassen avgjøres av hva formålet med KI-assistenten er. KI-forordningen deler bruken inn i ulike kategorier:

KategoriBeskrivelse og typiske kommunale områderViktige presiseringer og unntak
Høy-risikoBruk innen utdanning, arbeidsliv og rekruttering, tilgang til viktige tjenester (inkl. velferd), og demokratiske prosesser.Unntak: Hvis assistenten utfører en avgrenset, prosedyremessig oppgave som ikke utgjør risiko for helse, sikkerhet eller grunnleggende rettigheter, kan man påberope seg unntak.
Ikke høy-risikoBruk som utgjør minimal risiko. Dette er for eksempel oppgaver som utfører en rent avgrenset prosedyre, eller som ikke er ment å erstatte/vesentlig påvirke en menneskelig vurdering.
Forbudt brukSystemer med uakseptabel risiko for grunnleggende rettigheter (f.eks. bevisst manipulering, sosial skåring, vurdering av persons risiko for å begå kriminalitet).Stort sett uaktuelt for kommuner.

Unntak: Slik vurderer dere risiko i praksis

Section titled “Unntak: Slik vurderer dere risiko i praksis”

Unntak er svært vanlig for kommunal bruk av KI-assistenter. Selv om en assistent brukes innenfor et område som i utgangspunktet er definert som høyrisiko (som utdanning eller velferd), kan bruken få unntak fra de strengeste kravene. Dette gjelder spesielt hvis assistenten:

  • Ikke er ment for å erstatte eller påvirke en menneskelig vurdering.
  • Er beregnet på å utføre en avgrenset, prosedyremessig oppgave.

For å illustrere at det finnes mange trygge og svært nyttige bruksområder som ikke klassifiseres som høyrisiko, kan vi se på to typiske eksempler fra kommunal hverdag:

Eksempel 1: Kvalitetssikring av sakspapirer (Menneskelig vurdering beholdes)

En rådgiver bruker en KI-assistent til å kvalitetssikre sakspapirer som skal sendes til bystyret. KI-assistenten henviser til aktuelle maler og gir tilbakemeldinger på dokumentene: Den sjekker at tidligere saksnumre er referert på riktig sted, at innholdet oppfyller minimumskravene, og at den skriftlige stilen oppfyller Språklovens krav til klarspråk.

  • Hvorfor er dette et unntak? KI-assistenten brukes kun for å forbedre kvaliteten på arbeidet som saksbehandlerne allerede har gjort. Rådgiveren leser gjennom tilbakemeldingene, gjør sine egne vurderinger, og redigerer sakspapirene manuelt før utsending. Assistenten verken erstatter eller fatter egne vedtak.

Eksempel 2: Regeloppslag for skole og SFO (Avgrenset og prosedyremessig)

En skoleavdelingsleder bygger en KI-assistent basert på kommunens egne inntaksforskrifter, opptaksregler og prioriteringskriterier. Formålet er at kolleger enkelt kan slå opp svar på prosedyrespørsmål: Hvilken dokumentasjon kreves ved søknad om SFO? Hva er fristene? Hvordan er nærskolesonegrensene definert?

  • Hvorfor er dette et unntak? Selv om dette gjelder “utdanning”, gjør KI-assistenten kun en avgrenset, prosedyremessig oppgave – nemlig å forklare regler som allerede finnes på kommunens nettsider. Den gjør ingen vurdering av et enkelt barn eller en spesifikk sak. Det er den ansatte selv som tar informasjonen, vurderer den, og skriver svar til foreldrene.

Hvorfor er rollen din viktig?

KI-forordningen er i stor grad utformet som et produktsikkerhetsregelverk. Dette betyr at ansvaret og forpliktelsene fordeles ut fra hvor virksomheten befinner seg i KI-verdikjeden. Det er et bevisst skille for å plassere ansvaret der det faktisk kan håndteres best:

  • Leverandører (Providers) bærer det tyngste ansvaret og må dokumentere at selve KI-systemet er trygt før det gjøres tilgjengelig (design, teknisk dokumentasjon, testing, CE-merking).
  • Idriftsettere (Deployers) har et ansvar som retter seg mot den konkrete bruken av systemet i hverdagen (sikre menneskelig tilsyn, følge bruksanvisninger og ivareta innbyggernes rettigheter).

Din rolle i henhold til KI-forordningen avgjøres primært av om dere deler assistenten utenfor deres egen organisasjon:

  • Idriftssetter (Deployer): Du er en idriftssetter dersom kommunen din bruker assistentene utelukkende internt.
  • Nedstrømsleverandør (Downstream provider): Du blir en nedstrømsleverandør dersom kommunen din deler en ferdigbygget assistent med andre kommuner. (Du trer da inn i et “Leverandør”-ansvar for det dere deler).
    • Merk: Med “deling” menes at dere gir en annen kommune tilgang til en assistent dere har bygget, og som de ikke har bygget selv på plattformen. Hvis en annen kommune bygger sin egen assistent basert på deres instruksjoner/prompts (for eksempel via “Assistant Library”), regnes ikke dette som deling av systemet, og dere forblir idriftssetter.

Forpliktelsene deres avgjøres av kombinasjonen av risikoklasse (hvordan assistenten brukes) og rolle (om den deles).

Her er de tre vanligste scenarioene for kommuner. Listene under beskriver de konkrete kravene dere må innfri før og underveis i bruken.

Scenario A: Idriftssetter + Ikke høy-risiko

Section titled “Scenario A: Idriftssetter + Ikke høy-risiko”

Dette gjelder kommuner som bruker egenutviklede assistenter utelukkende internt til oppgaver med lav risiko.

Eksempel på bruk: Kommunen har laget en assistent som hjelper HR-avdelingen med å skrive utkast til stillingsutlysninger basert på gamle maler, eller en assistent som oppsummerer lange, offentlige utredninger for kommuneledelsen.

Dette er deres forpliktelser (sjekkliste):

  • Krav til KI-kompetanse: Kommunen må forsikre seg om at det er tilstrekkelig KI-kunnskap (“AI literacy”) blant brukerne. De ansatte må ha nok kompetanse til å bruke plattformen trygt og ta informerte avgjørelser om innholdet Intric genererer.

Dette gjelder kommuner som bruker assistenter internt, men på områder som er definert som høyrisiko.

Eksempel på bruk: Kommunen bruker en KI-assistent som en del av en automatisk saksbehandlingsprosess for å beregne tildeling av sosialhjelp, eller for å sortere og vurdere kandidater i en rekrutteringsprosess hvor den fatter eller vesentlig påvirker beslutninger om enkeltpersoner.

Dette er deres forpliktelser (sjekkliste):

  • Menneskelig tilsyn: Dere må sikre reelt menneskelig tilsyn av personer med riktig myndighet og kompetanse. Mennesket skal alltid ha siste ord.
  • Varsling av ansatte og fagforeninger: Dere må informere tillitsvalgte og ansatte før systemet tas i bruk på arbeidsplassen.
  • Varsling av innbyggere: Berørte personer (f.eks. søkere) skal varsles om at de er gjenstand for automatisert beslutningstaking eller at KI benyttes som beslutningsstøtte.
  • Riktig inndata: Dere må sikre at det kun mates inn relevant og hensiktsmessig data (input) til assistenten.
  • Bruk i tråd med anvisning: Assistenten skal utelukkende brukes i samsvar med de gitte bruksanvisningene fra leverandøren (Intric).
  • Overvåking og loggføring: Bruken av systemet skal overvåkes og hendelser loggføres systematisk.
  • Registrering hos myndigheter: Systemet må registreres i et offentlig register hos Nasjonal kommunikasjonsmyndighet (Nkom).
  • Personvern (DPIA): Dere må gjennomføre en Vurdering av personvernkonsekvenser (DPIA) dersom løsningen behandler personopplysninger.

Scenario C: Nedstrømsleverandør + Høy-risiko

Section titled “Scenario C: Nedstrømsleverandør + Høy-risiko”

Dette gjelder kommuner som har bygget en assistent for et høyrisikoområde, og velger å dele selve systemtilgangen med andre organisasjoner eller kommuner.

Eksempel på bruk: Kommunen har bygget et avansert KI-verktøy for vurdering av byggetillatelser. I stedet for å bare dele selve oppskriften (prompten), gir de en nabokommune direkte systemtilgang til assistenten gjennom et interkommunalt samarbeid. Dermed “leverer” kommunen systemet videre.

Dette er deres forpliktelser (sjekkliste):

  • Kvalitetsstyring: Dere må etablere og vedlikeholde et formelt kvalitetsstyringssystem for KI-assistenten.
  • Risikovurderinger: Gjennomføre og dokumentere formelle risikovurderinger før og under deling.
  • Datastyring: Etablering av strenge rutiner for datastyring og datakvalitet (“Data governance”).
  • Registrering hos myndigheter: Assistenten må registreres som et høyrisikosystem hos Nkom.
  • Overvåking og loggføring: Implementere systematisk overvåking og loggføring av hvordan systemet presterer og brukes av de andre kommunene.