En KI-hallusinasjon er når en KI-modell presenterer noe usant som om det er fakta – og gjør det med full selvsikkerhet. Modellen finner ikke bare på fakta i blinde; den genererer det som statistisk sett høres riktig ut, selv om det ikke er det.
Begrepet er litt misvisende: KI-en «ser» ikke ting som ikke er der, slik mennesker gjør under en hallusinasjon. En bedre beskrivelse er kanskje «KI-konfabulering» – men hallusinasjon har festet seg.
Eksempler på hallusinasjoner
- Du ber ChatGPT om tre kildehenvisninger til et emne – den gir deg tre titler og forfatternavn, men bøkene eller artiklene eksisterer ikke.
- Du spør om hva en norsk politiker sa i en bestemt tale – modellen siterer ord de aldri har uttalt.
- Du ber om historiske årstall – modellen gir deg feil årstall, presentert selvsikkert.
- Juridisk rådgivning med ikke-eksisterende paragrafnumre og lovhenvisninger.
Hvorfor skjer det?
Språkmodeller genererer det mest sannsynlige neste ordet, ikke det sanneste. De har ingen intern sjekk mot virkeligheten – ingen database de verifiserer påstander mot.
Når en modell ikke «vet» svaret, gjetter den ikke bevisst. Den genererer rett og slett et sannsynlig-klingende svar basert på mønstre i treningsdataene. Og siden mønsteret «spørsmål → selvsikkert svar» er overrepresentert i treningsdataene, svarer modellen selvsikkert.
Hva hallusinerer KI mest?
- Kildehenvisninger og forskning – svært høy risiko
- Sitater fra kjente personer – høy risiko
- Spesifikke datoer og tall – middels risiko
- Fakta om lite kjente emner – høy risiko
- Juridiske og medisinske detaljer – høy risiko
- Generell kunnskap om kjente emner – lav risiko, men fortsatt mulig
Slik oppdager og unngår du hallusinasjoner
- Stol aldri blindt på kildehenvisninger. Søk opp og verifiser at artikkelen faktisk eksisterer.
- Be KI-en om å si «jeg vet ikke». Promptet: «Hvis du ikke er sikker, si det eksplisitt.» Dette hjelper.
- Bruk RAG eller verktøy med internettilgang for faktaspørsmål. Da henter KI-en fra reelle kilder.
- Dobbeltsjekk spesifikke tall, datoer og navn mot autoritative kilder.
- Still oppfølgingsspørsmål: «Er du sikker? Hvor vet du dette fra?» – noen ganger innrømmer KI-en usikkerhet da.
Vanlige spørsmål
-
Er hallusinasjoner et permanent problem?
Nyere modeller hallusinerer mindre, og teknikker som RAG (hente informasjon fra eksterne kilder) reduserer problemet mye. Men det forsvinner neppe helt – det er en grunnleggende konsekvens av hvordan LLM-er fungerer.
-
Lyver KI-en med vilje?
Nei. Modellen har ingen intensjoner og «vet» ikke forskjellen på sant og usant. Den genererer statistisk sannsynlig tekst – uten at det nødvendigvis er sant.
-
Er noen KI-modeller bedre enn andre?
Ja. Nyere, større modeller med internettilgang (RAG) hallusinerer langt mindre enn eldre eller mindre modeller. Men ingen er immune.