
Legeerklæring for HC-kort: Komplett guide (2026)
HC-kort er strengt regulert. Her er kravene til gangdistanse, forskjellen på fører og passasjer, og hvordan du skriver en legeerklæring som blir godkjent.
Lær hva AI-hallusinering er, hvorfor det skjer, og hvordan du oppdager og unngår feil når du bruker kunstig intelligens til journalføring.

En pasient sier "jeg har hatt vondt i hodet". AI skriver "pasienten rapporterer migrene med aura".
Det skjedde ikke. Pasienten sa aldri "migrene". AI fant det på selv.
Dette kalles hallusinering. Og det skjer oftere enn du tror.
En studie fra Cornell University fant at rundt 1% av transkripsjoner inneholder tekst som ikke finnes i lydopptaket. Ved dårlig lydkvalitet øker tallet. Og 40% av disse feilene er potensielt skadelige.
Over 30 000 klinikere bruker nå AI-baserte verktøy til medisinsk dokumentasjon. Mange vet ikke hvor ofte verktøyene finner på ting.
Denne guiden forklarer hva hallusinering er, hvorfor det skjer, og hvordan du oppdager og unngår feil.
AI kan generere medisinsk informasjon som ikke finnes i kilden. Du må alltid lese gjennom og godkjenne AI-generert tekst før den lagres i journalen. Juridisk er du ansvarlig for innholdet.
Hallusinering er når AI skriver noe som ikke ble sagt.
Du kjenner kanskje følelsen: Du leser gjennom et AI-generert notat og tenker "sa pasienten virkelig det?" Ofte er svaret nei.
I medisinsk dokumentasjon kan det bety:
Det høres dramatisk ut. Og det er det. Men det er viktig å forstå at dette ikke er "bugs" som kan fikses. Det er en grunnleggende egenskap ved hvordan AI fungerer.
OpenAI har selv bekreftet at hallusinasjoner ikke kan elimineres helt. De kan bare reduseres.
Her er dokumenterte eksempler fra forskning:
| Det som ble sagt | Det AI skrev |
|---|---|
| "To jenter og en dame" | "To andre jenter og en dame, eh, som var svarte" |
| (Ingen omtale av medisiner) | "hyperaktiverte antibiotika" (finnes ikke) |
| "Han skulle ta paraplyen" | "Han tok et stort stykke av et kors... han drepte flere mennesker" |
| (Stillhet i opptaket) | Helt oppfunnet setninger om behandling |
Det siste eksempelet er spesielt viktig. Stillhet i begynnelsen eller slutten av et opptak kan trigge hallusinasjoner. AI "fyller inn" med tekst som ikke finnes.
I medisinsk sammenheng har FDA advart om at systemer som oppsummerer pasient-lege-samtaler kan "utilsiktet generere en falsk diagnose som aldri ble diskutert".
Tallene varierer avhengig av kontekst og lydkvalitet.
| Studie | Hallusinasjonsrate |
|---|---|
| Cornell/ACM FAccT (klar lyd) | ~1% av segmenter |
| University of Michigan (møter) | 8 av 10 transkripsjoner |
| Kim et al. (lav lydkvalitet) | +20% ved dårlig signal |
| Fortune-undersøkelse | 40% av feil er skadelige |
1% høres lite ut. Men tenk på det slik: Hvis du har 20 konsultasjoner om dagen, og hver konsultasjon har 50 setninger, risikerer du statistisk sett én feil setning hver dag.
Og den ene setningen kan være en feil diagnose, et feil medikament, eller en feil dose.
For å forstå hvorfor AI hallusinerer, må du forstå hvordan den fungerer.
AI-modeller som GPT-4, Claude eller Whisper lærer ikke fakta. De lærer mønstre i tekst. Når du spør dem noe, genererer de det mest sannsynlige svaret basert på mønstrene de har lært.
Tenk på det som en avansert autofullføring. Når du skriver "god mor..." foreslår telefonen "morgen". Den vet ikke hva morgen er. Den vet bare at "morgen" ofte kommer etter "god mor".
AI gjør det samme, bare mye mer avansert. Den forutsier hva som sannsynligvis kommer neste. Og noen ganger er det mest sannsynlige svaret feil.
Språkmodeller forstår ikke hva de skriver. De gjetter hva som passer best basert på mønstre de har sett før. Når modellen lager tekst, velger den ord som ofte kommer sammen, ikke ord som er sanne. Dette er grunnen til at hallusinasjoner er en grunnleggende egenskap, ikke en feil som kan fikses.
Noen situasjoner gir flere hallusinasjoner:
La oss være ærlige om dette: Du er ansvarlig. Alltid.
Ifølge helsepersonelloven § 4 er det du som er ansvarlig for journalens innhold. Punktum.
AI er et verktøy. Akkurat som en kalkulator. Hvis kalkulatoren gir feil svar og du skriver det i journalen, er det fortsatt ditt ansvar.
"Forsvarlighetsplikten innebærer at helsepersonell utviser forsiktighet ved bruk av anbefalinger fra KI-systemer, særlig da disse har en tendens å hallusinere."
Verktøy som brukes til diagnose eller behandlingsbeslutninger må være CE-merket som medisinsk utstyr.
ChatGPT er ikke CE-merket. Det betyr at hvis du bruker det til medisinske formål, tar du på deg et ekstra ansvar. Det er ikke ulovlig, men det krever ekstra forsiktighet. Tenk på det som off-label bruk av legemidler.
AI-verktøy som kun hjelper med dokumentasjon (transkribering, strukturering) har lavere krav. Men du er fortsatt ansvarlig for innholdet.
Fra august 2026 gjelder EUs KI-forordning i Norge. Den klassifiserer AI-systemer etter risikonivå og stiller strengere krav til høyrisikosystemer i helsesektoren.
Her er en sjekkliste du kan bruke hver gang du gjennomgår AI-generert tekst.
Vær ekstra skeptisk når:
Så hva kan du gjøre? Du kan ikke eliminere hallusinasjoner. Men du kan redusere dem og fange dem før de havner i journalen.
Noen AI-verktøy viser hvor informasjonen kommer fra. Da kan du verifisere at påstandene faktisk finnes i kilden.
Verktøy som Journalhjelp viser hvilke deler av journalen svaret er basert på. Du kan sjekke at AI ikke har funnet på noe.
Dårlig lyd gir flere feil. Sørg for:
Verktøy som pseudonymiserer pasientdata før AI-behandling reduserer risikoen for at sensitiv informasjon lekker. Det forhindrer ikke hallusinasjoner, men det begrenser skadepotensialet.
Ikke la tidspress føre til at du hopper over gjennomgangen. Bygg inn gjennomgang som en fast del av arbeidsflyten.
Noen leger leser gjennom notatet sammen med pasienten før de avslutter konsultasjonen. Det tar litt ekstra tid, men pasienten kan fange feil du ikke ser.
Hvis mulig, behold lydopptaket til du har godkjent notatet. Da kan du gå tilbake og sjekke hvis noe virker feil.
Merk: GDPR krever at opptak slettes når formålet er oppfylt. De fleste sletter opptak etter at notatet er godkjent.
AI-støttet dokumentasjon fungerer godt i mange situasjoner. Men det finnes unntak.
I disse situasjonene kan det være tryggere å dokumentere manuelt, eller å være ekstra grundig i gjennomgangen.
Forskning viser to vanlige feller:
Overtillit (automation bias): Du stoler blindt på AI fordi den "virker smart". Du slutter å lese kritisk. Feil slipper gjennom.
Undertillit: Du bruker så mye tid på å dobbeltsjekke alt at du ikke sparer tid. Da er poenget med AI borte.
Målet er en sunn skepsis. AI er et verktøy som gjør jobben raskere, men som krever at du holder øynene åpne.
Behandle AI-generert tekst som et utkast fra en turnuslege. Les gjennom, korriger, og ta ansvar for det endelige resultatet.
Journalhjelp er bygget med hallusinasjonsrisiko i tankene.
Kildehenvisninger: Når du bruker Journalchat, viser systemet hvilke deler av journalen svaret er basert på. Du kan verifisere at informasjonen faktisk finnes.
Pseudonymisering først: All pasientdata pseudonymiseres før AI behandler den. Navn, fødselsnummer og andre identifikatorer fjernes automatisk.
Obligatorisk gjennomgang: Du kan ikke lagre et notat uten å ha sett gjennom det. Systemet er designet for at mennesket alltid har siste ord.
Norsk datalagring: All data behandles og lagres i Azure Norge East. Ingen tredjelandsoverføring, ingen bruk til AI-trening.
Se hvordan Journalhjelp håndterer journaldata med kildehenvisninger og pseudonymisering. Start gratis prøveperiode.
AI-hallusinering er reelt. Det skjer i rundt 1% av transkripsjoner med god lydkvalitet, oftere med dårlig lyd. 40% av feilene er potensielt skadelige.
Du kan ikke eliminere hallusinasjoner. Men du kan:
AI er et kraftig verktøy for å spare tid på dokumentasjon. Men det erstatter ikke din faglige vurdering. Bruk det klokt.
Les også:
Hva er AI-hallusinering?
AI-hallusinering er når kunstig intelligens genererer innhold som ikke finnes i kildematerialet. I medisinsk sammenheng kan det bety symptomer pasienten ikke nevnte, feil medikamenter, eller diagnoser som ikke stemmer med samtalen.
Hvor ofte skjer AI-hallusinering?
Studier viser at rundt 1% av transkripsjoner med klar lyd inneholder hallusinasjoner. Ved dårlig lydkvalitet øker raten. 40% av hallusinasjonene er potensielt skadelige.
Hvem har ansvaret hvis AI skriver feil i journalen?
Du har ansvaret. Ifølge helsepersonelloven § 4 er det alltid helsepersonellet som er ansvarlig for journalens innhold, uansett hvilket verktøy som er brukt. AI er et hjelpemiddel, ikke en erstatter for din faglige vurdering.
Hvordan oppdager jeg hallusinasjoner?
Les alltid gjennom AI-generert tekst før lagring. Vær ekstra oppmerksom på medikamentnavn, doser, diagnoser og tall. Sjekk at informasjonen stemmer med det du husker fra samtalen. Bruk verktøy som viser kildehenvisninger.
Kan hallusinasjoner elimineres helt?
Nei. OpenAI har selv bekreftet at hallusinasjoner ikke kan elimineres, bare reduseres. Det er en grunnleggende egenskap ved hvordan språkmodeller fungerer. Derfor må du alltid gjennomgå AI-generert tekst.
Er det lovlig å bruke AI til journalføring i Norge?
Ja, men med forbehold. Du må informere pasienten, sikre at data håndteres etter GDPR, og alltid gjennomgå og godkjenne innholdet. Verktøy som brukes til diagnose eller behandlingsbeslutninger må være CE-merket.

HC-kort er strengt regulert. Her er kravene til gangdistanse, forskjellen på fører og passasjer, og hvordan du skriver en legeerklæring som blir godkjent.

Fastleger bruker opptil 40% av tiden på administrasjon. Her er 5 konkrete verktøy og metoder som frigjør tid til pasientene, inkludert nye AI-løsninger.

Praktisk guide til å implementere AI-transkribering i fastlegepraksis. Fra risikovurdering til første pasient - alt du trenger for å komme i gang.