Myter om AI

AI i sundhed og demensområdet

Billeder og tekst er skabt i samarbejde med Gemini og Github Copilot.

Michell Cronberg
December 2025

Agenda

  • Hvad er AI? - Myter og virkelighed
  • AI i samfundet - værktøjer du kan prøve
  • AI i sundhed og demensområdet
  • Sikkerhed og etiske overvejelser
  • Patienter og pårørende møder AI
  • Spørgsmål og diskussion

AI er ikke magi - det er matematik

  • Large Language Models (LLM'er): ChatGPT, Copilot, Gemini
  • Trænet på milliarder af tekster fra internettet
  • Forudsiger det mest sandsynlige næste ord
  • Ligner intelligens - men er mønstergenkendelse

"En patient med demens har ofte udfordringer med..."
→ AI foreslår: "hukommelse", "orientering", "daglige gøremål"

AI "ved" ikke hvad demens er - den genkender mønstre

Hvordan AI lærer

  1. Data: Milliarder af tekster fra internet, bøger, artikler
  2. Mønstergenkendelse: Lærer sammenhænge mellem ord
  3. Finjustering: Mennesker retter og guider
  4. Resultat: Værktøj der formulerer sig - men ikke "ved" noget

AI er et spejl af de data den er trænet på.
Den skaber ikke ny viden - den remixer eksisterende viden.

De 3 store myter

  • Myte: "AI erstatter os"
    • AI er et værktøj, ikke en erstatning. Det er mennesker der træffer beslutninger.
  • Myte: "AI ved alt"
    • AI hallucinerer og tager fejl. Den lyder sikker - også når den lyver.
  • Myte: "AI er farlig/magisk"
    • Det er software med klare begrænsninger. Hverken Terminator eller tryllestav.

De store sprogmodeller

Værktøj Udvikler Link
ChatGPT OpenAI chat.openai.com
Copilot Microsoft copilot.microsoft.com
Gemini Google gemini.google.com
Claude Anthropic claude.ai

Tip: Start med ChatGPT eller Copilot - de er gratis og lette at bruge

Eksempel: Claude fra Anthropic

AI kan tale - mobil og stemme/video

App Stemmefunktion
ChatGPT Naturlig samtale med "Advanced Voice"
Gemini Integreret med Google Assistant
Copilot Stemmesamtale på dansk
  • Download appen, tryk på mikrofonen, og tal
  • Relevant for demens: Stemmestyring gør AI tilgængelig

Research og læring

Værktøj Beskrivelse
Perplexity Research med kilder - viser hvor info kommer fra
NotebookLM Upload dokumenter, få AI til at forklare

NotebookLM kan endda lave en podcast-samtale om dine dokumenter!

Fantastisk til at forstå komplekse faglige tekster

Eksempel - NotebookLM

AI skaber billeder, video og musik

Billeder og video:

  • Sora, DALL-E, Midjourney, Gemini
  • "Nano Banana" - søg på det!

Musik:

  • Suno, Udio - skriv en beskrivelse, få en sang

AI kan nu skabe tekst, billeder, video og musik.
Det rejser spørgsmål om hvad der er "ægte".

Eksempel - originalt billede

Eksempel - AI genereret billede

AI i sundhed og demensområdet

AI som støtteværktøj

  • Klinisk beslutningsstøtte (ikke beslutningstagning)
  • Journalføring - AI kan hjælpe med dokumentation
  • Patientkommunikation - triage og rådgivning

AI aflaster - men erstatter ikke faglig vurdering

Konkrete eksempler

  • AI-støttet journalføring der sparer tid
  • Predictive analytics: Forudsige faldrisiko eller uro
    • Lidt som en servicehund der forudsiger et anfald
  • Virtuelt selskab: AI-figurer til ensomme ældre
  • Demensscreening via taleanalyse
  • Stemmeassistenter til medicinpåmindelser
  • Billedgenkendelse til at huske ansigter

Sikkerhed og etik

Data og privatliv

Hvad sker med dine data?

  • Gratis versioner: Kan bruges til træning
  • Betalte versioner: Ofte bedre beskyttelse
  • Sundhedsdata: Kræver særlig opmærksomhed (GDPR)

Tommelfingerregler:

  • Del aldrig CPR-numre eller personhenførbare data
  • Brug anonymiserede cases
  • Tjek arbejdspladsens retningslinjer

AI tager fejl

  • Hallucinationer: AI opfinder fakta og studier
  • Bias: Afspejler fordomme i træningsdata
  • Forældet viden: Ved ikke hvad der skete i går

Gylden regel: Stol aldrig blindt på AI i kliniske beslutninger.
AI er en sparringspartner, ikke en autoritet.

Ansvar og demensområdet

Hvem har ansvaret når AI fejler?

  • Juridisk: Den fagperson der handler på AI's anbefaling

Særlige overvejelser:

  • Demensramte kan have svært ved at vurdere AI's troværdighed
  • Pårørende må ofte vurdere om AI-råd er fornuftige
  • AI må aldrig erstatte menneskelig omsorg

Patienter og pårørende

Den nære fremtid

  • "Digital læge" / sundhedschatbots

    • Flere regioner eksperimenterer
    • Besvarer simple spørgsmål døgnet rundt
  • Stemmeassistenter til struktur og påmindelser

    • "Hej Google, hvornår skal jeg tage min medicin?"
  • Apps til hukommelsestræning

    • Personaliseret til brugerens niveau

Hvad pårørende skal vide

  • AI giver råd - ikke diagnoser
  • Vær kritisk medlæser for den demensramte
  • Pas på privatlivet - særligt sundhedsdata
  • Menneskelig kontakt er uerstattelig

AI kan supplere, aldrig erstatte, nærvær og omsorg

Forklar "hallucinationer" - AI opfinder fakta. Nævn at GPT-4 har ~1.8 billioner parametre. n LLM er et computerprogram, som er trænet til at forstå og skrive tekst på samme måde, som mennesker gør. Det har læst enorme mængder tekst og har lært mønstre i sproget. Derfor kan det svare på spørgsmål, forklare ting, skrive tekster, komme med forslag og føre samtaler. Det “ved” ikke ting på samme måde som mennesker, men det gætter godt ud fra alt det, det har lært. Super enkelt eksempel på træning Forestil dig, at modellen får denne tekst som en del af sin træning: Træningstekst: “Ved demens er det vigtigt at tale roligt og bruge korte sætninger. Hvis en borger bliver forvirret, kan man sige: ‘Du er tryg, og jeg hjælper dig.’ Det gør situationen nemmere for begge parter.” Hvad lærer modellen af dette? At demens hænger sammen med rolig kommunikation. At korte sætninger ofte er en god idé. At tryghed er et vigtigt ord i omsorg. Når modellen senere får spørgsmålet: “Hvordan taler jeg bedst med en borger med demens?” … så bruger den de mønstre, den har lært fra sådanne tekster, og svarer i samme omsorgsfulde og enkle stil.

Træningsdata: bøger, Wikipedia, Reddit, fagartikler. Cutoff-dato betyder forældet viden.

Nøglepunkt: AI lyder sikker - også når den lyver! Brug konkret eksempel fra publikums fagområde.

ChatGPT startede revolutionen nov. 2022. Copilot er i Windows/Office. Alle gratis at prøve.

DEMO-mulighed: Vis live samtale. Relevant for demens: ingen skrivning/navigation nødvendig.

Perplexity viser KILDER. NotebookLM kan lave podcast af dine dokumenter - vis eksempel.

Deepfakes er en reel bekymring. "Nano Banana" er godt eksempel - søg på det.

Vigtigt: Lær at prompte korrekt og give context. Dårlig prompt = dårligt svar.

Japan har virtuelt selskab til ældre. Servicehund-analogi virker godt til predictive analytics.

ALDRIG CPR eller navne. Gratis versioner bruger data til træning. Spørg: Har I retningslinjer?

AI kan opfinde studier der ikke eksisterer! Vis evt. eksempel på hallucination.

"Black box"-problem: Vi ved ikke HVORFOR AI svarer som den gør. Dokumentér brug af AI.

Regioner eksperimenterer allerede med AI-triage. Stemme = gentagelser uden frustration.

Pårørende = kritisk medlæser. Start simpelt: "Forklar demens i simple ord". Hvad med en folder?