Introduktion
🎯 Lärandemål
- Förstå skiftet från regelstyrd programmering till mönsterbaserad maskininlärning
- Begripa hur en språkmodell bygger text, pusselbit för pusselbit
- Lär dig hantera begränsningar som “tokens” och “kontextfönster”
Du behöver inte vara civilingenjör för att bemästra generativ AI – men du behöver förstå dess inre logik. När du greppar hur en AI faktiskt “tänker” förändras sättet du pratar med den på. Du slutar se den som en allvetande varelse och börjar se den för vad den är: en extremt begåvad mönsterigenkännare med ett väldigt specifikt arbetsminne.
Det börjar med att förstå hur AI:n överhuvudtaget lär sig – utan att någon skriver reglerna åt den.
Maskininlärning – att lära sig utan regler
Traditionella datorprogram fungerar genom exakta instruktioner som en människa skrivit: “Om kunden skriver ‘Hej’, svara ‘Hej! Hur kan jag hjälpa dig?’” Varje scenario, varje regel, varje möjligt svar måste programmeras manuellt.
Maskininlärning fungerar tvärtom. Istället för att skriva tusentals regler ger du AI:n massor av exempel – och den räknar ut mönstren själv. Du behöver inte berätta exakt vad som gör en text till “god svenska” eller hur man svarar artigt på en fråga. Modellen ser tillräckligt många exempel och lär sig mönstren.
Hur träningen faktiskt går till
Kom ihåg från Avsnitt 1 att AI arbetar med språk statistiskt. När en AI-modell tränas på text händer i grunden detta:
- Den läser miljontals meningar och noterar vilka ord som brukar följa efter varandra
- Den ser att efter “Tack för” kommer ofta “hjälpen” eller “din tid”
- Den lär sig att “Napoleon” ofta förekommer nära “Frankrike” och “kejsare”
- Den upptäcker att frågor som börjar med “Hur” ofta följs av verb
Allt detta lagras som matematiska samband – sannolikheter för vilka ord som hör ihop. När du sedan ställer en fråga använder modellen dessa inlärda mönster för att generera ett svar som statistiskt sett verkar rimligt.
Ingen har programmerat in: “Om någon frågar om Napoleon, svara att han var kejsare.” Istället har modellen sett så många texter där dessa ord förekommer tillsammans att den statistiskt sett “vet” att de hör ihop.
Eftersom modeller tränas på olika sätt med olika data blir de också bra på olika saker – och det påverkar hur du bör välja och använda dem.
Varför språkmodeller är olika bra
Kom ihåg från Avsnitt 1 att olika språkmodeller har olika styrkor. Nu kan vi förstå varför.
Träningsdata
En modell tränad huvudsakligen på vetenskapliga artiklar blir bra på precist, formellt språk men kanske mindre naturlig i vardagliga konversationer. En modell tränad på kod blir expert på programmering. En modell tränad på många olika språk blir bättre på översättning.
Modellstorlek
Större modeller (med fler parametrar) kan lära sig mer komplexa mönster och nyanser, men kräver mer beräkningskraft och kostar mer att använda. Mindre modeller är snabbare och billigare men kanske mer begränsade i sina förmågor.
Träningsmetoder
Hur en modell tränas påverkar vad den blir bra på. Vissa modeller tränas specifikt för att resonera steg-för-steg, andra för att ge korta, koncisa svar. Vissa optimeras för kreativitet, andra för faktaprecision.
Kontextfönster
Olika modeller har olika stora “skrivbord” – vissa kan hantera mycket längre konversationer och större dokument samtidigt än andra. Mer om detta nedan!
Varför spelar detta roll?
Att förstå att modellerna är olika innebär att du kan välja rätt verktyg för rätt uppgift. En modell som är briljant på kreativt skrivande kanske inte är lika bra på kodning eller dataanalys – och vice versa.
För att kunna räkna ut de matematiska sambanden behöver AI:n först bryta ner språket i hanterbara delar – det är här tokens kommer in.
Tokens: AI:ns pusselbitar
AI:n ser inte hela ord som vi gör, utan arbetar med något som kallas tokens. Du kan tänka på en token som en pusselbit.
- Ett kort ord som “katt” är oftast en egen pusselbit
- Ett längre ord som “fastighetsförvaltning” delas upp i flera pusselbitar (“fastighets” + “förvalt” + “ning”) för att AI:n ska kunna förstå dess olika beståndsdelar
- Även ett mellanslag eller ett kommatecken räknas som en egen pusselbit
Varför spelar tokens roll för dig som användare?
Det beror på att AI:n har ett begränsat arbetsminne – ett kontextfönster – med en fast gräns mätt i just tokens.
1 000 tokens motsvarar ungefär 750 ord på engelska. För svenska och andra språk kan förhållandet variera – ofta behövs fler tokens per ord i språk utanför den latinska språkgruppen.
Nu när du vet vad tokens är kan vi förstå varför AI:ns arbetsminne är begränsat – och vad det innebär i praktiken.
Kontextfönstret: Ett skrivbord som kan bli fullt
Tänk dig AI:ns arbetsminne som ett skrivbord. När du ställer en fråga eller laddar upp ett dokument lägger AI:n ut alla tillhörande tokens på skrivbordet. Det är bara det som ligger på skrivbordet som AI:n kan “se” och arbeta med samtidigt.
Skrivbordet har en fast storlek. Det spelar ingen roll hur smart modellen är – den får bara plats med ett visst antal tokens innan ytan är helt täckt.
När skrivbordet blir fullt
När du har en lång konversation eller matar in tunga rapporter händer till slut något avgörande: skrivbordet blir fullt. För att få plats med en ny pusselbit i ena änden måste AI:n knuffa ner en gammal pusselbit över kanten i den andra änden. Det är då den börjar “tappa tråden”.
Tre konsekvenser du bör känna till
1. Den glömmer instruktioner
Om du gav en specifik instruktion i början av en chatt (“Svara alltid på engelska”) och chatten blir väldigt lång, kan den instruktionen till slut knuffas ner från skrivbordet. Plötsligt börjar AI:n svara på svenska igen – pusselbiten med din instruktion är inte längre kvar i dess arbetsminne.
2. Dokumentanalys har en gräns
Om du laddar upp ett dokument som är större än vad skrivbordet rymmer kan AI:n aldrig se hela bilden samtidigt. Den ser bara de delar som får plats just nu.
3. Precision minskar med “skräp”
Ju mer irrelevant småprat eller gamla frågor du har på skrivbordet, desto mindre plats finns det för den viktiga informationen.
Lösningen är enkel
När du märker att assistenten börjar missa detaljer eller bli luddig är det ofta ett tecken på att skrivbordet är fullt. Starta en ny konversation – det städar ytan och ger AI:n rätt fokus igen.
Sammanfattning
Med förståelsen för tokens och kontextfönstret ser du AI:n för vad den faktiskt är – och kan använda den betydligt smartare.
- Maskininlärning, inte regler – Språkmodeller lär sig inte genom hårdkodade instruktioner utan genom att tränas på miljontals exempel och upptäcka statistiska mönster i hur ord hänger ihop.
- Modeller är olika bra av en anledning – Träningsdata, modellstorlek och träningsmetoder skapar olika styrkor. Välj modell efter uppgift.
- Tokens är AI:ns pusselbitar – Språket bryts ner i tokens (ord, delar av ord, skiljetecken). Ungefär 1 000 tokens motsvarar 750 ord på engelska – fler för svenska.
- Kontextfönstret är AI:ns arbetsyta, se det som ett skrivbord med begränsad storlek – När det fylls knuffas gamla tokens ut, och AI:n kan “glömma” tidiga instruktioner eller missa detaljer i stora dokument.
- Lösningen: starta en ny konversation – Det rensar skrivbordet och ger AI:n rätt fokus igen.