AI lyver ikke med vilje. Det ved ikke forskellen mellem sandhed og fiktion. Når ChatGPT selvsikkert citerer et studie, der ikke findes, eller Claude opfinder en statistik, der lyder plausibel, gør det præcis, hvad det blev designet til at gøre: forudsige de mest sandsynlige næste ord. Nogle gange er de mest sandsynlige ord forkerte. Dette kaldes en hallucination, og det er det vigtigste at forstå for at bruge AI sikkert.

Vigtige fakta
  • Hvad det er: AI genererer selvsikker information, der er faktisk forkert
  • Hvorfor det sker: AI forudsiger sandsynlig tekst, ikke verificerede fakta
  • Hvor hyppigt: Varierer efter model og opgave — mest hyppigt ved specifikke fakta, datoer og citater
  • Mest farligt: Når output lyder plausibelt og du ikke verificerer det
  • Bedste forebyggelse: Brug Perplexity til fakta (den citerer kilder) og verificer altid kritiske påstande
  • Sidst verificeret: April 2026

Hvorfor AI hallucinerer

AI-modeller lærer ved at analysere mønstre i enorme mængder tekst. De lærer, at visse ord og fraser ofte optræder sammen. Når du stiller et spørgsmål, genererer modellen et svar ved at forudsige, hvilke ord der mest sandsynligt kommer efter — ikke ved at slå fakta op i en database.

Det betyder, at AI er meget god til at producere tekst, der lyder rigtigt og ofte faktisk er rigtig. Men når det møder et spørgsmål, hvor svaret der "lyder rigtigt" og svaret der "faktisk er rigtigt" er forskellige, vælger det det, der lyder rigtigt. Hver gang.

Almindelige hallucinationsmønstre: opdigtede citater og forskningsartikler, der ikke findes, opfundne statistikker, der lyder plausible, angivelse af forældet information som aktuel, selvsikker besvarelse af spørgsmål, det ikke har nok information til at besvare, og skabelse af fiktive detaljer, når man opsummerer virkelige begivenheder.

5 måder at opdage hallucinationer på

1. Brug Perplexity til alt, der skal være sandt. Perplexity søger på nettet og citerer kilder. Hvis en påstand betyder noget, verificerer du det i Perplexity i stedet for at stole på ChatGPT eller Claude.

2. Spørg AI, hvor sikker det er. "Hvor sikker er du på dette svar? Hvilke dele kan være forkerte?" AI-værktøjer bliver bedre til at anerkende usikkerhed, når de bliver spurgt direkte.

3. Krydscheck med en anden AI. Hvis ChatGPT giver dig en statistik, spørger du Claude det samme spørgsmål. Hvis de er uenige, er mindst én forkert — undersøg videre.

4. Vær mistænksom over for specifikke tal. Nøjagtige procentsatser, dollarbeløb, datoer og citater er de mest almindeligt hallucinerede detaljer. Generelle tendenser og begreber er mere pålidelige end specifikke datapunkter.

5. Verificer før du udgiver, præsenterer eller beslutter. Dette er den eneste regel, der betyder noget. Enhver fakta fra AI, som du bruger i offentligt arbejde, forretningsbeslutninger eller vigtig kommunikation, bør verificeres uafhængigt.

Får du værdi af dette? Vi udgiver ugentlig om effektiv og sikker brug af AI. Tilslut dig læsere, der holder sig informerede →

Når hallucinationer ikke betyder noget

Ikke enhver AI-opgave kræver faktisk nøjagtighed. Brainstorming af idéer, udkast til kreativt indhold, udforskning af skrivestile, generering af kodestrukturer og gennemtænkning af hypotetiske scenarier — disse opgaver lider ikke af lejlighedsvise unøjagtigheder, fordi du bruger output som udgangspunkt, ikke som sandhedskilde.

Farezonen er snæver, men vigtig: når du har brug for fakta, tal, citater, juridiske fortolkninger, medicinsk information eller påstande, du ville præsentere som sande. For disse opgaver er AI en assistent, ikke en autoritet.

For mere om effektiv brug af AI-værktøjer, tjek vores begyndervejledning eller sammenlign AI-modeller på vores State of AI Models side.

Det er hvad vi gør hver uge. Et dybt dyk ind i AI-værktøjer, arbejdsgange og ærlige holdninger — uden hype, uden fyld. Tilslut dig os →

Oplysning: Nogle links i denne artikel er affiliatelinks. Vi anbefaler kun værktøjer, vi har testet personligt og bruger regelmæssigt. Se vores fuldstændige oplysningspolitik.