AI hallusinering i helsevesenet: Slik unngår du feil i journalen (2026)

Lær hva AI-hallusinering er, hvorfor det skjer, og hvordan du oppdager og unngår feil når du bruker kunstig intelligens til journalføring.

Journalhjelp
Journalhjelp
29. januar 202612 min lesetid
Illustrasjon av AI-hallusinering i medisinsk dokumentasjon

En pasient sier "jeg har hatt vondt i hodet". AI skriver "pasienten rapporterer migrene med aura".

Det skjedde ikke. Pasienten sa aldri "migrene". AI fant det på selv.

Dette kalles hallusinering. Og det skjer oftere enn du tror.

En studie fra Cornell University fant at rundt 1% av transkripsjoner inneholder tekst som ikke finnes i lydopptaket. Ved dårlig lydkvalitet øker tallet. Og 40% av disse feilene er potensielt skadelige.

Over 30 000 klinikere bruker nå AI-baserte verktøy til medisinsk dokumentasjon. Mange vet ikke hvor ofte verktøyene finner på ting.

Denne guiden forklarer hva hallusinering er, hvorfor det skjer, og hvordan du oppdager og unngår feil.

Hovedbudskapet

AI kan generere medisinsk informasjon som ikke finnes i kilden. Du må alltid lese gjennom og godkjenne AI-generert tekst før den lagres i journalen. Juridisk er du ansvarlig for innholdet.

Hva er AI-hallusinering?

Hallusinering er når AI skriver noe som ikke ble sagt.

Du kjenner kanskje følelsen: Du leser gjennom et AI-generert notat og tenker "sa pasienten virkelig det?" Ofte er svaret nei.

I medisinsk dokumentasjon kan det bety:

  • Symptomer pasienten aldri nevnte
  • Medikamenter som ikke eksisterer
  • Diagnoser som ikke ble diskutert
  • Tall og doser som er feil
  • Hendelser som ikke skjedde

Det høres dramatisk ut. Og det er det. Men det er viktig å forstå at dette ikke er "bugs" som kan fikses. Det er en grunnleggende egenskap ved hvordan AI fungerer.

OpenAI har selv bekreftet at hallusinasjoner ikke kan elimineres helt. De kan bare reduseres.


Ekte eksempler på hallusinasjoner

Her er dokumenterte eksempler fra forskning:

Det som ble sagtDet AI skrev
"To jenter og en dame""To andre jenter og en dame, eh, som var svarte"
(Ingen omtale av medisiner)"hyperaktiverte antibiotika" (finnes ikke)
"Han skulle ta paraplyen""Han tok et stort stykke av et kors... han drepte flere mennesker"
(Stillhet i opptaket)Helt oppfunnet setninger om behandling

Kilde: Cornell University / ACM FAccT 2024

Det siste eksempelet er spesielt viktig. Stillhet i begynnelsen eller slutten av et opptak kan trigge hallusinasjoner. AI "fyller inn" med tekst som ikke finnes.

I medisinsk sammenheng har FDA advart om at systemer som oppsummerer pasient-lege-samtaler kan "utilsiktet generere en falsk diagnose som aldri ble diskutert".


Hvor ofte skjer det?

Tallene varierer avhengig av kontekst og lydkvalitet.

StudieHallusinasjonsrate
Cornell/ACM FAccT (klar lyd)~1% av segmenter
University of Michigan (møter)8 av 10 transkripsjoner
Kim et al. (lav lydkvalitet)+20% ved dårlig signal
Fortune-undersøkelse40% av feil er skadelige

1% høres lite ut. Men tenk på det slik: Hvis du har 20 konsultasjoner om dagen, og hver konsultasjon har 50 setninger, risikerer du statistisk sett én feil setning hver dag.

Og den ene setningen kan være en feil diagnose, et feil medikament, eller en feil dose.


Hvorfor skjer hallusinering?

For å forstå hvorfor AI hallusinerer, må du forstå hvordan den fungerer.

AI-modeller som GPT-4, Claude eller Whisper lærer ikke fakta. De lærer mønstre i tekst. Når du spør dem noe, genererer de det mest sannsynlige svaret basert på mønstrene de har lært.

Tenk på det som en avansert autofullføring. Når du skriver "god mor..." foreslår telefonen "morgen". Den vet ikke hva morgen er. Den vet bare at "morgen" ofte kommer etter "god mor".

AI gjør det samme, bare mye mer avansert. Den forutsier hva som sannsynligvis kommer neste. Og noen ganger er det mest sannsynlige svaret feil.

Teknisk forklaring

Språkmodeller forstår ikke hva de skriver. De gjetter hva som passer best basert på mønstre de har sett før. Når modellen lager tekst, velger den ord som ofte kommer sammen, ikke ord som er sanne. Dette er grunnen til at hallusinasjoner er en grunnleggende egenskap, ikke en feil som kan fikses.



Kilde: Helsedirektoratet

Faktorer som øker risikoen

Noen situasjoner gir flere hallusinasjoner:

  • Dårlig lydkvalitet: Bakgrunnsstøy, lav mikrofon, mumling
  • Stillhet i opptaket: Spesielt i begynnelsen og slutten
  • Uvanlige ord: Dialektord, medisinske forkortelser, fremmedord
  • Manglende kontekst: AI vet ikke hva pasienten heter eller hvilke medisiner de bruker
  • Lange opptak: Flere muligheter for feil over tid

Det juridiske: Du er alltid ansvarlig

La oss være ærlige om dette: Du er ansvarlig. Alltid.

Ifølge helsepersonelloven § 4 er det du som er ansvarlig for journalens innhold. Punktum.

AI er et verktøy. Akkurat som en kalkulator. Hvis kalkulatoren gir feil svar og du skriver det i journalen, er det fortsatt ditt ansvar.

Hva loven sier

"Forsvarlighetsplikten innebærer at helsepersonell utviser forsiktighet ved bruk av anbefalinger fra KI-systemer, særlig da disse har en tendens å hallusinere."



Kilde: Lov&Data

CE-merking og medisinsk utstyr

Verktøy som brukes til diagnose eller behandlingsbeslutninger må være CE-merket som medisinsk utstyr.

ChatGPT er ikke CE-merket. Det betyr at hvis du bruker det til medisinske formål, tar du på deg et ekstra ansvar. Det er ikke ulovlig, men det krever ekstra forsiktighet. Tenk på det som off-label bruk av legemidler.

AI-verktøy som kun hjelper med dokumentasjon (transkribering, strukturering) har lavere krav. Men du er fortsatt ansvarlig for innholdet.

KI-forordningen kommer

Fra august 2026 gjelder EUs KI-forordning i Norge. Den klassifiserer AI-systemer etter risikonivå og stiller strengere krav til høyrisikosystemer i helsesektoren.


Slik oppdager du hallusinasjoner

Her er en sjekkliste du kan bruke hver gang du gjennomgår AI-generert tekst.

Sjekkliste for gjennomgang

Røde flagg

Vær ekstra skeptisk når:

  • Teksten inneholder svært spesifikke detaljer du ikke husker
  • Medikamentnavn ser uvanlige ut
  • AI virker "for sikker" på noe du er usikker på
  • Det dukker opp informasjon om tidligere hendelser du ikke nevnte
  • Teksten er uvanlig lang eller detaljert

Slik reduserer du risikoen

Så hva kan du gjøre? Du kan ikke eliminere hallusinasjoner. Men du kan redusere dem og fange dem før de havner i journalen.

1. Velg verktøy med kildehenvisninger

Noen AI-verktøy viser hvor informasjonen kommer fra. Da kan du verifisere at påstandene faktisk finnes i kilden.

Verktøy som Journalhjelp viser hvilke deler av journalen svaret er basert på. Du kan sjekke at AI ikke har funnet på noe.

2. Sørg for god lydkvalitet

Dårlig lyd gir flere feil. Sørg for:

  • Minimal bakgrunnsstøy
  • God mikrofon (innebygd på laptop fungerer ofte greit)
  • At pasienten snakker tydelig
  • Ingen lange pauser i begynnelsen/slutten av opptaket

3. Bruk pseudonymisering

Verktøy som pseudonymiserer pasientdata før AI-behandling reduserer risikoen for at sensitiv informasjon lekker. Det forhindrer ikke hallusinasjoner, men det begrenser skadepotensialet.

4. Ha en fast gjennomgangsrutine

Ikke la tidspress føre til at du hopper over gjennomgangen. Bygg inn gjennomgang som en fast del av arbeidsflyten.

Noen leger leser gjennom notatet sammen med pasienten før de avslutter konsultasjonen. Det tar litt ekstra tid, men pasienten kan fange feil du ikke ser.

5. Behold originalopptaket (midlertidig)

Hvis mulig, behold lydopptaket til du har godkjent notatet. Da kan du gå tilbake og sjekke hvis noe virker feil.

Merk: GDPR krever at opptak slettes når formålet er oppfylt. De fleste sletter opptak etter at notatet er godkjent.


Når bør du IKKE bruke AI?

AI-støttet dokumentasjon fungerer godt i mange situasjoner. Men det finnes unntak.

Vær ekstra forsiktig ved
  • Komplekse medikamentlister med mange preparater
  • Pasienter som snakker uklart eller med sterk dialekt
  • Sensitive samtaler (psykiatri, rus, vold)
  • Situasjoner med mye bakgrunnsstøy
  • Konsultasjoner på andre språk enn norsk
  • Juridisk sensitive saker (attester, erklæringer)

I disse situasjonene kan det være tryggere å dokumentere manuelt, eller å være ekstra grundig i gjennomgangen.


AI og tillit: En balansegang

Forskning viser to vanlige feller:

Overtillit (automation bias): Du stoler blindt på AI fordi den "virker smart". Du slutter å lese kritisk. Feil slipper gjennom.

Undertillit: Du bruker så mye tid på å dobbeltsjekke alt at du ikke sparer tid. Da er poenget med AI borte.

Målet er en sunn skepsis. AI er et verktøy som gjør jobben raskere, men som krever at du holder øynene åpne.

Tommelfingerregel

Behandle AI-generert tekst som et utkast fra en turnuslege. Les gjennom, korriger, og ta ansvar for det endelige resultatet.


Hva Journalhjelp gjør annerledes

Journalhjelp er bygget med hallusinasjonsrisiko i tankene.

Kildehenvisninger: Når du bruker Journalchat, viser systemet hvilke deler av journalen svaret er basert på. Du kan verifisere at informasjonen faktisk finnes.

Pseudonymisering først: All pasientdata pseudonymiseres før AI behandler den. Navn, fødselsnummer og andre identifikatorer fjernes automatisk.

Obligatorisk gjennomgang: Du kan ikke lagre et notat uten å ha sett gjennom det. Systemet er designet for at mennesket alltid har siste ord.

Norsk datalagring: All data behandles og lagres i Azure Norge East. Ingen tredjelandsoverføring, ingen bruk til AI-trening.

Prøv Journalhjelp

Se hvordan Journalhjelp håndterer journaldata med kildehenvisninger og pseudonymisering. Start gratis prøveperiode.


Oppsummering

AI-hallusinering er reelt. Det skjer i rundt 1% av transkripsjoner med god lydkvalitet, oftere med dårlig lyd. 40% av feilene er potensielt skadelige.

Du kan ikke eliminere hallusinasjoner. Men du kan:

  1. Alltid lese gjennom før lagring
  2. Være ekstra oppmerksom på medikamenter, doser og diagnoser
  3. Velge verktøy med kildehenvisninger og pseudonymisering
  4. Sørge for god lydkvalitet for å redusere feil
  5. Huske at du er ansvarlig uansett hva AI skriver

AI er et kraftig verktøy for å spare tid på dokumentasjon. Men det erstatter ikke din faglige vurdering. Bruk det klokt.


Les også:


Ofte stilte spørsmål

Hva er AI-hallusinering?

AI-hallusinering er når kunstig intelligens genererer innhold som ikke finnes i kildematerialet. I medisinsk sammenheng kan det bety symptomer pasienten ikke nevnte, feil medikamenter, eller diagnoser som ikke stemmer med samtalen.

Hvor ofte skjer AI-hallusinering?

Studier viser at rundt 1% av transkripsjoner med klar lyd inneholder hallusinasjoner. Ved dårlig lydkvalitet øker raten. 40% av hallusinasjonene er potensielt skadelige.

Hvem har ansvaret hvis AI skriver feil i journalen?

Du har ansvaret. Ifølge helsepersonelloven § 4 er det alltid helsepersonellet som er ansvarlig for journalens innhold, uansett hvilket verktøy som er brukt. AI er et hjelpemiddel, ikke en erstatter for din faglige vurdering.

Hvordan oppdager jeg hallusinasjoner?

Les alltid gjennom AI-generert tekst før lagring. Vær ekstra oppmerksom på medikamentnavn, doser, diagnoser og tall. Sjekk at informasjonen stemmer med det du husker fra samtalen. Bruk verktøy som viser kildehenvisninger.

Kan hallusinasjoner elimineres helt?

Nei. OpenAI har selv bekreftet at hallusinasjoner ikke kan elimineres, bare reduseres. Det er en grunnleggende egenskap ved hvordan språkmodeller fungerer. Derfor må du alltid gjennomgå AI-generert tekst.

Er det lovlig å bruke AI til journalføring i Norge?

Ja, men med forbehold. Du må informere pasienten, sikre at data håndteres etter GDPR, og alltid gjennomgå og godkjenne innholdet. Verktøy som brukes til diagnose eller behandlingsbeslutninger må være CE-merket.

Del dette innlegget

For fastleger

Fra journal til ferdig skjema på sekunder

Last opp journalen, velg skjema, og la AI gjøre resten. Ingen installasjon.

Relaterte innlegg