Gå til indholdet

Kunsten at stille det rigtige spørgsmål – en introduktion til promptgenerering

Michell Cronberg

Vi har alle prøvet det. Man stiller et spørgsmål til en AI-model, og svaret er enten for vagt, for langt, uden struktur -- eller bare ikke det, man havde brug for. Ofte er løsningen ikke en bedre model, men en bedre prompt.

Warning

Bemærk venligst hvornår denne artikel er skrevet. AI-teknologi udvikler sig hurtigt, og det, der er sandt i dag, kan være forældet i morgen.

Og hvad er en prompt så? Det er ganske enkelt det input, du skriver til en AI-model -- spørgsmålet, opgaven, anvisningen. Jo mere præcis, struktureret og kontekstbevidst den er, jo bedre bliver svaret. Lidt som med Google: Du får noget andet ud af at søge på

skatteregler

end på

hvordan beskattes aktieudbytte for privatpersoner i Danmark i 2025?

Men med AI er forskellen endnu større -- og effekten endnu mere kraftfuld.

Prompt Engineering

Det engelske begreb prompt engineering lyder lidt teknisk, men det dækker over noget helt lavpraktisk: At formulere et input, der får modellen til at give det bedst mulige svar. Det kaldes "engineering", fordi det ofte er en proces med at eksperimentere, justere og lære undervejs. Du starter måske med en simpel prompt, men justerer den, når du ser resultatet. Det er en slags trial-and-error, hvor man iterativt forbedrer sin formulering for at få præcise, brugbare eller kreative svar. I nogle situationer består de første interaktioner med modellen ikke i at stille selve opgaven, men i at diskutere og afklare, hvordan man bedst formulerer prompten. Det kan være nødvendigt at starte med at beskrive sin intention, forklare konteksten eller bede modellen om at hjælpe med at skrive den rigtige prompt, før man overhovedet går i gang med den egentlige opgave. Det er en nyttig tilgang, især i mere komplekse eller åbne problemstillinger, hvor en simpel prompt ikke er nok.

Token og kontekst

En prompt består af noget, der kaldes tokens. En token er en lille bid tekst -- det kan være et helt ord, et delord eller blot et tegn, afhængigt af sproget og modellen. AI-modeller som GPT arbejder ikke med hele sætninger, men med disse tokens én ad gangen.

Det betyder også, at længden og indholdet af din prompt har stor betydning. Skriver du for lidt, mangler modellen kontekst -- altså baggrund og retning til at forstå, hvad du vil opnå. Den svarer så ud fra generelle antagelser, som ikke altid rammer plet. Omvendt, hvis du skriver for meget, kan du risikere at overvælde modellen -- eller forvirre den med for mange modsatrettede signaler.

Modellens svar kan også være påvirket af konteksten fra tidligere samtaler. Moderne modeller har et langt større kontekstvindue end tidligere, hvilket betyder, at de kan huske og anvende mere information fra tidligere interaktioner. Det er super smart, fordi modellen dermed kan "huske" relevant baggrundsinformation og skabe mere sammenhængende svar. Men det kan også være en ulempe: Hvis der ligger fejl, misforståelser eller irrelevante oplysninger tidligere i samtalen, kan det farve og forvride det svar, du får senere. Det er derfor en god idé at være opmærksom på, hvad modellen "tror den ved" fra tidligere -- især i længere samtaler.

En god prompt rammer balancen: nok information til at give modellen en klar ramme og rolle, men ikke så meget, at den mister fokus.

Når en prompt er for simpel

Man kan godt være fristet til at skrive en helt simpel prompt og bare antage, at modellen forstår præcis, hvad der menes. Men det kan være en stor fejl. Modellen er ikke en tankelæser -- den er en slags kollega, der ved enormt meget, men som ikke nødvendigvis kender formålet med det, du beder om. Den gætter ud fra dine ord, og hvis din prompt er for vag eller uklar, kan svaret blive misvisende eller irrelevant. Det er derfor vigtigt at være eksplicit: fortæl modellen, hvilken rolle den har, hvad formålet er, og hvordan du ønsker svaret præsenteret.

Et sjovt og lærerigt eksempel på vigtigheden af præcise instruktioner findes i en video, hvor en far forsøger at smøre en peanutbutter-mad ud fra sine børns mundtlige anvisninger. Hver gang børnene ikke er helt præcise -- f.eks. glemmer at sige, at låget skal skrues af, eller at brødet skal pakkes ud -- følger faren deres instruktioner bogstaveligt og ender med absurde resultater. Jeg bruger ofte klippet i undervisningen som introduktion til programmering, men det passer mindst lige så godt som metafor for promptgenerering: AI-modeller gør ikke det, du mener, men det, du siger.

AI-modeller er lidt på samme måde: de gør præcis det, du siger -- ikke nødvendigvis det, du mente. AI-modeller er dog meget bedre end en traditionel CPU, som kun kan følge helt faste og entydige instruktioner. En AI-model har en vis evne til at fortolke, sammenligne og ræsonnere -- men kun inden for rammerne af det, du giver den. Den kan ikke læse dine tanker eller forstå den opgave, du vil løse, medmindre du forklarer det tydeligt. Det kræver stadig, at du er præcis og struktureret i din prompt.

Råd til at skrive (bedre) prompts

Så en prompt kræver præcision og du kan forbedre dine prompts markant med nogle få teknikker. Vi kan tage udgangspunkt i denne prompt:

Forklar forskellen mellem LLM og GPT.

Den virker umiddelbart tydelig -- men den giver ikke modellen nogen retning, rolle eller information om målgruppen. Den specificerer heller ikke, hvordan svaret skal struktureres. Resultatet kan blive for generelt, for teknisk eller ganske enkelt ikke brugbart i den kontekst, du havde tænkt dig.

Brug roller

AI'en spiller gerne en rolle -- og det er en af de mest effektive teknikker, når du vil have bedre og mere målrettede svar. Ved at sætte modellen i en bestemt rolle, fx som "AI-instruktør", "erfaren udvikler" eller "juridisk rådgiver", hjælper du den med at finde den rette vinkel, sprogbrug og fokus. Det gør prompten mere kontekstuel, og modellen kan bedre prioritere informationer og formulere svar, der matcher det forventede niveau og formål.

Du er en erfaren AI-instruktør: Forklar forskellen mellem LLM og GPT.

Bed om struktur

AI'er arbejder bedst, når de får en tydelig ramme for, hvordan de skal strukturere deres svar. Hvis du blot skriver et spørgsmål uden at angive ønsket svarform, kan du få noget langt, kringlet eller upræcist tilbage. Men hvis du beder om punktform, tabel, opsummering eller fx en analogi, så former AI'en automatisk sit svar efter det ønskede format -- og det gør det både nemmere at læse og hurtigere at bruge svaret.

Du er en erfaren AI-instruktør: Forklar forskellen 
mellem LLM og GPT. Skriv svaret i punktform.

Målgruppe

Det er vigtigt at tænke over, hvem svaret er tiltænkt -- altså målgruppen. En AI-model kan formulere sig som en professor, en pædagog, en tekniker eller en storyteller, men det afhænger helt af, hvordan du instruerer den. Hvis du f.eks. skal forklare et begreb til en person uden teknisk baggrund, skal du bede modellen bruge et enkelt sprog, undgå fagudtryk og eventuelt bruge en analogi. Jo mere præcis du er omkring målgruppen, jo bedre rammer svaret.

Du er en erfaren AI-instruktør: Forklar forskellen mellem LLM 
og GPT for en leder uden det store kendskab til AI. Skriv 
svaret i punktform.

Eksempler og analogier

Nogle gange kan det være en fordel at bede om eksempler og analogier. Det hjælper med at gøre komplekse emner mere forståelige og relaterbare, især hvis målgruppen ikke er teknisk. En analogi fungerer som en slags mental genvej -- den forbinder noget nyt og abstrakt med noget velkendt. Eksempler gør desuden svaret mere konkret og anvendeligt -- og AI-modeller er gode til at generere relevante og illustrative eksempler, når de bliver bedt om det.

Du er en erfaren AI-instruktør: Forklar forskellen mellem LLM 
og GPT for en leder uden det store kendskab til AI. Skriv svaret
i punktform og afslut med en huskeregel, og afslut gerne med en 
metafor til at forklare forskellen.

Et generelt råd man hører flere og flere steder er, at forsøge så vidt det er muligt at undgå stave- og formateringsfejl i sin prompt. Jo mere klar man er i sin kommunikation jo bedre. Det gælder også brugen af store bogstaver og udråbstegn. Nogle modeller reagerer ret tydeligt på eksempelvis "HUSK!!! ...".

Kan man bruge AI til at tale med AI?

Man kunne vel ikke forestille sig at bruge AI til at hjælpe med at skrive prompts til AI? Faktisk er det en rigtig god idé! En model som ChatGPT kan hjælpe dig med at forbedre dine egne prompts. Du kan fx skrive:

Du er en avanceret prompt ingeniør. Hjælp mig med at forbedre denne 
prompt: 'Forklar forskellen mellem LLM og GPT'. Stil mig spørgsmål 
hvis du mangler mere information til at gøre prompten så effektiv 
som muligt.

På den måde bliver AI'en ikke bare en, du taler til, men også en aktiv sparringspartner, der hjælper dig med at formulere dig bedre -- både teknisk og pædagogisk. Svaret kunne se således ud (MS CoPilot - men prøv selv i andre modeller):


God idé! En effektiv prompt bør være klar, specifik og målrettet, så AI'en kan levere et præcist og brugbart svar. For at forbedre din prompt, har jeg et par spørgsmål:

1 Målgruppe: Skal svaret være teknisk detaljeret (til eksperter) eller simpelt og forståeligt (til ledere eller begyndere)?

2 Format: Foretrækker du et svar i punktform, en kort opsummering eller en længere forklaring?

3 Anvendelse: Skal svaret være generelt informativt, eller skal det relatere til en specifik kontekst (f.eks. AI i virksomheder, akademiske miljøer eller softwareudvikling)?

4 Metaforer eller analogier: Vil du gerne have en letforståelig metafor, der gør forskellen mere intuitiv?

5 Eksempler: Ønsker du praktiske eksempler på anvendelse af LLM og GPT?

6 Længde: Skal svaret være kort (2-3 sætninger), mellem (1-2 afsnit) eller dybdegående (flere afsnit med detaljer)?

Når du besvarer disse spørgsmål, kan jeg hjælpe dig med at formulere den mest effektive prompt for dit behov! 😃


Det er en lidt meta-agtig øvelse, men ekstremt nyttig - og god til at lære fra. Man kalder også denne type prompt for en meta- eller template prompt.

Husk at en prompt kan blive opfattet på meget forskellig måde af forskellige modeller -- også inden for samme udbyder. En prompt, der virker perfekt i én model, kan give et helt andet (og måske dårligere) svar i en anden. Det skyldes forskel i træningsdata, arkitektur og hvordan den enkelte model vægter signaler som tone, struktur og intention. Nogle modeller forstår bedre kontekst i lange prompts, mens andre er mere præcise i korte, direkte instruktioner.

Brugerdefinerede instruktioner

Nogle chatbots giver dig mulighed for at gemme eller anvende prædefinerede instruktioner. Det gør det meget nemmere at prompte effektivt, især hvis du ofte arbejder med samme type opgaver eller har særlige præferencer for tone, format eller målgruppe.

Eksempel på en brugerdefineret instruktion kunne være:

Jeg arbejder med dokumentation i en e-commerce virksomhed og 
skriver altid på engelsk. Jeg foretrækker korte og klare svar 
med teknisk præcision, og jeg har brug for, at alle forklaringer 
kan genbruges i onboardingmateriale og vidensdatabaser. Svar skal 
være struktureret i punktform, og undgå lange afsnit eller 
unødvendige metaforer. Brug gerne terminologi fra softwareudvikling 
og digital handel.

Med en sådan brugerdefineret instruktion forstår modellen straks, hvem du er, hvad du skal bruge svaret til, og hvordan det skal præsenteres. Uden en prædefineret instruktion skal du muligvis gentage de samme oplysninger i hver prompt, hvilket både er ineffektivt og øger risikoen for variationer i svarene. Ved at gemme instruktionerne ét sted sikrer du en mere ensartet og målrettet respons. Det svarer lidt til at give din AI-assistent et fast onboarding-dokument, så du ikke skal starte forfra hver gang.

Fremtid og udvikling

Prompt engineering er en vigtig færdighed lige nu, fordi det hjælper os med at få bedre, mere relevante svar fra generative AI-modeller. Men området udvikler sig super hurtigt, og modellerne bliver stadig bedre til at forstå, hvad vi mener -- selv hvis vi ikke formulerer os helt præcist. I fremtiden vil modellerne sandsynligvis kunne hjælpe endnu mere aktivt med at skrive prompts eller afkode vores intentioner, uden at vi skal specificere alting manuelt. Det betyder, at fokus gradvist rykker: Fra at bruge tid på at finjustere den perfekte formulering til i stedet at blive skarpe på at definere selve problemet -- altså hvad vi vil opnå, og hvorfor. Allerede i dag kan AI som nævnt assistere os i promptarbejdet ved at stille opklarende spørgsmål eller komme med forslag til forbedringer.

Udfordring

Du skal skrive en (meta) prompt til en AI-model som skal hjælpe med at skrive en prompt til at skrive artikler om det nye T-shirt-brand til et blad til kommende konferencer, blade, website mv. Du har modtaget følgende fra salgsafdelingen:

Vi har lanceret et nyt T-shirt-brand med fokus på bæredygtighed og urban stil. Det er tænkt som et moderne brand med et unikt visuelt udtryk, der taler til unge voksne i byerne -- både modebevidste og miljøbevidste. Produktet er lavet af genanvendte materialer, og dele af overskuddet går til grønne initiativer.

Skriv en prompt som for AI modellen til at hjælpe med at skrive den endelige prompt ved at stille spørgsmål.

Her er et eksempel men prøv selv at lege med det:

Du er en professionel tekstforfatter med særlig erfaring inden for 
markedsføring. Din opgave er at hjælpe mig med at udforme en præcis 
prompt til en AI-model, der skal skrive en artikel til et magasin i 
forbindelse med en kommende konference om vores nye T-shirt-brand.

Her er salgsafdelingens input:

Vi har lanceret et nyt T-shirt-brand med fokus på bæredygtighed og urban stil. 
Det er tænkt som et moderne brand med et unikt visuelt udtryk, der taler til 
unge voksne i byerne -- både modebevidste og miljøbevidste. Produktet er lavet 
af genanvendte materialer, og dele af overskuddet går til grønne initiativer.

Start med at stille mig opklarende spørgsmål, så vi sammen kan definere:

- tone
- sprog
- ønsket artikelstruktur
- online / trykt artikel
- målgruppepræferencer
- specielle fokusområder
- eventuel begivenhed relateret til artiklen
- længde
- eventuelle visuelle eller stilistiske elementer
- andet du mener er vigtigt

Stil mig et spørgsmål af gangen og vent på svaret. Når du har alle oplysninger, 
skal du generere en færdig prompt, som jeg kan indsætte direkte i en AI-model 
for at få skrevet artikeludkastet.

Prøv det i forskellige modeller og læg mærke til hvordan flowet og resultatet er forskelligt.

I den virkelige verden vil en model allerede (sikkert gennem predefinerede instruktioner eller en agent) vide noget om virksomheden, dens tilgang til bæredygtighed, produktion og andre informationer. Har den ikke det begynder den at gætte når den skriver artiklen.