Ny forskning viser, at et stort flertal af AI-brugere ukritisk accepterer fejlagtige svar fra sprogmodeller. Fænomenet har fået betegnelsen “kognitiv kapitulation” – og resultaterne er tankevækkende for alle, der dagligt bruger AI-assistenter.
Hvad er “kognitiv kapitulation”?
Begrebet dækker over det, der sker, når en bruger sætter sin egen vurdering på pause og accepterer AI-systemets output – selv når der er tydelige tegn på, at svaret ikke holder vand.
I forsøgene bag den nye forskning, refereret af Ars Technica, blev deltagerne præsenteret for bevidst fejlagtige AI-svar. Alligevel valgte et stort flertal at acceptere dem fremfor at stole på deres egen viden eller fornuft. Det er ikke en overraskelse, at det sker – men omfanget er bemærkelsesværdigt.
Hvorfor sker det?
Sprogmodeller som ChatGPT, Claude og Gemini leverer svar med stor sproglig selvsikkerhed og flydende formulering. Det lyder kompetent, selv når det er forkert. Det er svært for hjernen at skelne “dette lyder overbevisende” fra “dette er rigtigt” – og AI-systemer udnytter, nærmest utilsigtet, præcis den svaghed.
Det er heller ikke kun teknisk uerfarne brugere, der falder i fælden. Forskningen antyder, at mønsteret gælder bredt på tværs af brugergrupper.
Hvad betyder det i praksis for danskere?
I Danmark bruger vi AI til stadigt flere opgaver: research, tekstskrivning, kodeudvikling, sundhedsrådgivning og meget mere. Jo mere vi delegerer vores tænkning til modellerne, jo større bliver risikoen for at handle på fejlagtig information.
Det er et særligt problem inden for områder, hvor konsekvenserne af forkerte svar er store – juridiske spørgsmål, medicinsk information, finansielle beslutninger. Her kan blind tillid til AI-output have alvorlige følger.
Vi har allerede set tendenser i den retning: Utah i USA overvejer at lade AI forny receptpligtig medicin, og AI-assistenter bruges i stigende grad til at rådgive om alt fra skattespørgsmål til helbredsklager. Det er en udvikling, der kræver bevidste brugere.
Et redskab – ikke et orakel
Forskningen er ikke et argument for at afstå fra AI. Det er et argument for at bruge det med åbne øjne.
En praktisk tommelfingerregel: Krydstjek altid AI-svar på vigtige spørgsmål med andre kilder. Vær særlig opmærksom, når modellen leverer faktuelle svar med stor selvsikkerhed – det er typisk her, hallucineringerne gemmer sig. Og husk, at en sproglig overbevisende formulering ikke er det samme som faktuel korrekthed.
AI er et kraftfuldt redskab. Men det forbliver et redskab – ikke et orakel.
