Introduktion
🎯 Lärandemål
- Förstå principen om “few-shot prompting”
- Lära sig hur många exempel som är optimalt
- Kunna skapa effektiva exempel för custom instructions
De föregående avsnitten handlade om att strukturera dina instruktioner och besvara de rätta frågorna. Nu lär du dig en av de mest kraftfulla teknikerna inom prompt engineering: att visa istället för att förklara. Ett enda välvalt exempel kan ersätta flera meningars förklaring – och ge dramatiskt bättre resultat.
Du har säkert upplevt det: du förklarar noggrant exakt vad du vill ha, men tonen är fel, formatet konstigt eller detaljnivån inte alls vad du tänkte. Det finns en enklare lösning – och det är den vi tittar på nu.
Varför exempel ofta slår förklaringar
Hemligheten som de stora AI-företagen använder är enkel: istället för att försöka förklara allt med ord, visa modellen exempel på exakt hur du vill att resultatet ska se ut.
“Examples are your secret weapon shortcut for getting Claude to generate exactly what you need.” — Anthropic, Best Practices for Prompt Engineering
Det här kallas few-shot prompting (eller multishot prompting) – och det är en av de mest kraftfulla teknikerna du kan använda. Zero-shot innebär att du ger inga exempel alls, one-shot innebär ett exempel och few-shot innebär två eller fler.
Att exempel fungerar bättre än förklaringar är inte en slump – det finns fyra konkreta skäl till varför tekniken är så kraftfull.
Varför fungerar det så bra?
1. Visar istället för berättar
Människor (och AI-modeller) lär sig bättre från konkreta exempel än från abstrakta beskrivningar. Ett enda bra exempel kan klargöra saker som skulle ta flera meningar att förklara.
2. Klargör subtila nyanser
Det finns förväntningar som är svåra att uttrycka i ord – som exakt vilken ton du vill ha, hur formell texten ska vara eller hur detaljerad en förklaring ska vara. Exempel visar detta direkt, utan tolkning.
3. Ger konsistens
När modellen har sett exempel på “rätt” format följer den det mönstret mycket mer konsekvent än om du bara beskriver det. Konsistens är kritiskt när du bygger en assistent som ska användas i praktiken.
4. Minskar generiska AI-svar
Enligt tester från Anthropic kan rätt exempel eliminera upp till 80 % av generiska, intetsägande AI-svar – särskilt om du kombinerar positiva och negativa exempel (mer om det senare i det här avsnittet).
Skillnaden mellan att använda och att inte använda exempel är lättast att förstå med ett konkret fall. Här är en direkt jämförelse.
Från zero-shot till few-shot: En praktisk jämförelse
❌ Zero-shot (utan exempel)
## UPPGIFT
Kategorisera kundemejl i rätt kategori.
KATEGORIER
- Teknisk support
- Fakturafrågor
- Produktinformation
- Klagomål
- Övrigt
Resultat: Fungerar okej för tydliga fall, men blir osäker vid gränsfall. Vad är skillnaden mellan “Teknisk support” och “Klagomål” om kunden både klagar OCH behöver hjälp?
✅ Few-shot (med exempel)
## UPPGIFT
Kategorisera kundemejl i rätt kategori.
KATEGORIER
- Teknisk support
- Fakturafrågor
- Produktinformation
- Klagomål
- Övrigt
EXEMPEL
Email: "Min app kraschar varje gång jag försöker logga in. Hjälp!"
Kategori: Teknisk support
Email: "Varför har jag fått en extra debitering på 299 kr?"
Kategori: Fakturafrågor
Email: "Har produkten X stöd för Bluetooth 5.0?"
Kategori: Produktinformation
Email: "Jag är extremt missnöjd med er kundservice och vill ha ersättning!"
Kategori: Klagomål
Email: "Jag har bytt e-postadress, var uppdaterar jag det?"
Kategori: Övrigt
<div class="hextra-copy-icon hx:group-[.copied]/copybtn:hidden hx:pointer-events-none hx:h-4 hx:w-4"></div>
Resultat: Modellen ser nu tydliga exempel på hur varje kategori ser ut och gör mycket bättre bedömningar – särskilt i gränsfall där en fråga kan höra hemma i mer än en kategori.
En av de vanligaste frågorna om few-shot prompting är: hur många exempel behöver jag egentligen? Svaret är mer nyanserat än du kanske tror.
Hur många exempel behöver du?
Anthropics rekommendation: Börja med ett exempel
“Start with one example (one-shot). Only add more examples (few-shot) if the output still doesn’t match your needs.”
Praktisk approach
- Börja med 0 exempel (zero-shot) – testa om modellen klarar uppgiften ändå
- Lägg till 1 exempel (one-shot) – ofta räcker detta
- Öka till 2–3 exempel om resultaten fortfarande varierar
- Använd 5–10 exempel endast för komplexa eller nischade uppgifter
Principen om avtagande utbyte
Forskning visar att fler exempel inte alltid är bättre. Efter ett visst antal får du marginell förbättring men använder fler tokens.
Tumregel
- 1 exempel → Enkla klassificeringsuppgifter, tydliga format
- 2–3 exempel → Medelkomplexa uppgifter, nyanserad ton
- 5+ exempel → Komplexa domäner, mycket specifika krav
Testa alltid! Det optimala antalet varierar beroende på uppgift och modell.
Att veta att du behöver exempel är ett – att skapa bra exempel är något annat. Här är vad som faktiskt skiljer ett effektivt exempel från ett ineffektivt.
Så skapar du effektiva exempel
1. Representativt för verkliga användningsfall
Dina exempel ska spegla den variation du förväntar dig i praktiken – inte konstruerade läroboksfall.
❌ Dåligt exempel (för enkelt och konstruerat)
Fråga: "Vad är Python?"
Svar: "Python är ett programmeringsspråk."✅ Bra exempel (realistiskt och med rätt detaljnivå)
Fråga: "Jag har precis börjat lära mig Python och fattar inte
skillnaden mellan listor och tuples. Kan du förklara?"
Svar: "Bra fråga! Både listor och tuples lagrar flera värden,
men den stora skillnaden är att listor går att ändra (mutable)
medan tuples är fasta (immutable).
Tänk så här: En lista är som en att-göra-lista – du kan lägga
till, ta bort eller ändra punkter. En tuple är som en födelsedag
– när den väl är satt kan du inte ändra datumet.
Lista (går att ändra)
frukt = ['äpple', 'banan']
frukt.append('apelsin') # OK!
Tuple (går inte att ändra)
datum = (2024, 3, 15)
datum[0] = 2025 # FEL! Ger error
Använd listor när data kan förändras, tuples när data ska
vara konstant."
<div class="hextra-copy-icon hx:group-[.copied]/copybtn:hidden hx:pointer-events-none hx:h-4 hx:w-4"></div>
Det andra exemplet är bättre för att det visar hur en riktig användare ställer frågan, demonstrerar önskad ton (pedagogisk, med analogier) och visar exakt vilken detaljnivå och struktur du vill ha.
2. Täcker olika scenarion
Om du använder flera exempel, se till att de visar variation i ton och situation – inte bara lätta, tydliga fall.
## EXEMPEL
Scenario 1: Enkel teknisk fråga
Kund: "Hur återställer jag mitt lösenord?"
Assistent: "Klicka på 'Glömt lösenord' på inloggningssidan.
Du får ett mail med återställningslänk inom 5 minuter.
Kontrollera även skräppost! Behöver du mer hjälp? 😊"
Scenario 2: Frustrerad kund
Kund: "Detta är tredje gången jag kontaktar er om samma problem!"
Assistent: "Jag förstår verkligen din frustration, och jag
beklagar att vi inte löst detta tidigare. Jag ska prioritera
ditt ärende nu. Kan du berätta vilket felnummer du fått så
kan jag eskalera direkt till vår tekniska avdelning?"
Scenario 3: Fråga utanför kunskap
Kund: "Har ni planer på att släppa en Mac-version?"
Assistent: "Tyvärr har jag inte information om framtida
produktreleaser. Jag rekommenderar att du följer vår blogg
på företag.se/nyheter. Finns det något annat jag kan hjälpa
dig med idag?"
<div class="hextra-copy-icon hx:group-[.copied]/copybtn:hidden hx:pointer-events-none hx:h-4 hx:w-4"></div>
Exemplen täcker olika känslomässiga lägen och visar hur tonen ska anpassas utan att kompromissa med professionaliteten.
3. Tydlig struktur som är lätt att följa
Använd konsekvent formatering i dina exempel så att modellen tydligt ser mönstret.
## EXEMPEL
Input: [användarens faktiska input]
Output: [exakt det format du vill ha]
Input: [nästa exempel]
Output: [nästa svar]
<div class="hextra-copy-icon hx:group-[.copied]/copybtn:hidden hx:pointer-events-none hx:h-4 hx:w-4"></div>
4. Negativa exempel
En kraftfull teknik är att visa både vad du VILL ha och vad du INTE vill ha. Enligt Anthropics tester kan detta eliminera upp till 80 % av generiska AI-svar.
## EXEMPEL PÅ BRA SVAR
Fråga: "Vad är maskininlärning?"
✅ BRA SVAR:
"Maskininlärning är när datorer lär sig mönster från data
istället för att följa hårdkodade regler. Tänk så här:
istället för att programmera 'om e-post innehåller ordet
Viagra → spam' tränar du modellen på tusentals exempel.
Den lär sig själv vilka mönster som är typiska för spam.
Exempel: Netflix rekommendationer använder maskininlärning
för att lära sig vad du gillar baserat på vad du tittat
på tidigare."
❌ DÅLIGT SVAR (för tekniskt):
"Maskininlärning är en subset av artificiell intelligens
som använder statistiska tekniker för att göra datorsystem
kapabla att 'lära' från data utan explicit programmering."
Varför dåligt: Teknisk jargong utan förklaring, ingen
analogi eller konkret exempel.
❌ DÅLIGT SVAR (för vagt):
"Maskininlärning är när datorer blir smartare."
Varför dåligt: För ytligt, ger inte användaren
verklig förståelse.
<div class="hextra-copy-icon hx:group-[.copied]/copybtn:hidden hx:pointer-events-none hx:h-4 hx:w-4"></div>
Sammanfattning
Few-shot prompting är en av de mest kraftfulla teknikerna i prompt engineering – och lättare att komma igång med än du tror.
- Exempel slår förklaringar – de visar modellen exakt vad du vill ha, inklusive ton, format och detaljnivå som är svåra att beskriva i ord.
- Börja med 1 exempel – lägg bara till fler om outputen fortfarande inte matchar dina förväntningar.
- 2–3 exempel räcker oftast – fler exempel ger avtagande utbyte och ökar kostnad utan proportionell förbättring.
- Gör exempel realistiska – spegla verklig användning och variation, inte konstruerade läroboksfall.
- Visa negativa exempel – att demonstrera vad du inte vill ha eliminerar upp till 80 % av generiska svar.
- Konsekvent formatering – använd samma struktur (Input/Output) i alla exempel så att modellen tydligt ser mönstret.