06.11.2025
Når teknologien bekræfter dig
Kan chatbots baseret på kunstig intelligens (AI) forværre psykisk sygdom? Det spørgsmål rejser professor Søren Dinesen Østergaard fra Aarhus Universitetshospital Psykiatrien og Institut for Klinisk Medicin ved Aarhus Universitet.
AI-Chatbots som ChatGPT er på rekordtid blevet en fast del af hverdagen for millioner af mennesker verden over. De kan hjælpe med alt fra mails til madopskrifter, og for langt de fleste er teknologien formentlig både nyttig og fascinerende. Men ifølge Søren Dinesen Østergaard rummer den også en mørkere side, som vi først er ved at få øjnene op for.
AI-Chatbots har en tendens til at bekræfte de idéer, man selv bringer ind i samtalen. Hvis de tanker i forvejen er på vej ud ad en tangent, kan man – som konsekvens af den konstante bekræftelse - langsomt glide længere og længere væk fra virkeligheden.
De første advarsler
Allerede i 2023 advarede han i en videnskabelig leder om risikoen for, at mennesker med manifest psykisk sygdom eller som er disponeret for psykisk sygdom kunne udvikle vrangforestillinger i forbindelse med interaktion med AI-Chatbots. Dette var blot en hypotese, men kort efter begyndte han at få henvendelser fra bekymrede pårørende til folk, der, ifølge de pårørende, havde udviklet vrangforestillinger i relation til brug af AI-Chatbots.
– Jeg fik især e-mails fra amerikanske familier, som var bekymrede for deres pårørende, og som havde set min leder. Jeg har ikke kunnet verificere, at deres pårørende vitterligt havde udviklet vrangforestillinger, men beretningerne var meget overbevisende og helt forenelige med vrangforestillinger, der næppe var opstået eller blevet forværret uden interaktion med AI-Chatbots. fortæller han.
Parallelt med, at der tikkede e-mails ind hos Søren Dinesen Østergaard, bragte store internationale medier som New York Times, The Guardian, Rolling Stone og Wall Street Journal overbevisende artikler omhandlende alvorlige vrangforestillinger opstået/forværret i relation til brug af AI-Chatbots – flere med dødelig udgang.
Grandiositet som gennemgående tema
Vrangforestillingerne, der er beskrevet i de e-mails Søren Dinesen Østergaard har modtaget og i nyhedsmedierne, har forskellige temaer, men der synes at være en gennemgående tendens.
– Jeg har bemærket, at mange af vrangforestillingerne har et klart grandiost element – altså storhedsvanvid. Medierne rapporterer f.eks. om folk, der har udviklet en tro på at have guddommelige evner, at have fået geniale forretningsidéer, at kunne løse verdens klimaudfordringer osv. osv. – alt sammen uden det mindste hold i virkeligheden.
Grandiose vrangforestillinger er særligt hyppige ved maniske episoder som ses hos folk med bipolar lidelse, og det har fået Søren Dinesen Østergaard til at udvide hans oprindelige hypotese.
– I tillæg til at kunne skubbe på vrangforestillinger er jeg ret overbevist om, at interaktion med AI-Chatbots også kan før til udvikling af maniske episoder uden at de nødvendigvis ledsages af vrangforestillinger, forklarer han og fortsætter:
– Når en person i et let opstemt humør kommunikerer med en AI-Chatbot fanger den lynhurtigt tonen og giver igen af samme skuffe, hvilket kan resultere i en slags opadgående spiral for stemningslejet. Jeg har selv eksperimenteret med det og tendensen er helt klar. Jeg er ganske overbevist om, at denne mekanisme vil kunne udløse alvorlige maniske episoder hos folk, der enten allerede har eller er disponeret for bipolar lidelse. Det bekymrer mig.
Behov for forskning og regulering
Søren Dinesen Østergaard påpeger, at man endnu ikke kan tale om en årsagssammenhæng. Ville de berørte personer måske have udviklet vrangforestillinger uden deres interaktion med en AI-Chatbot? Det er et åbent spørgsmål, og derfor er der nu et arbejde, der skal gøres.
– Der er et presserende behov for forskning i dette emne, så vi kan afklare, om der er tale om en kausalsammenhæng og – hvis det er tilfældet – hvad der driver den, siger han, og fortsætter:
– Den tidlige anekdotiske evidens er dog så bekymrende, at vi bør tage problemstillingen særdeles alvorligt.
Tech-giganterne har da også fået øjnene op for udfordringen. OpenAI, der står bag ChatGPT, har for nylig i en pressemeddelelse lovet at forbedre deres produkter, så de bedre kan opfange tegn på psykisk mistrivsel. For Søren Dinesen Østergaard er det et skridt i den rigtige retning, men langt fra tilstrækkeligt.
– Vi har brug for en markant mere skarp regulering af dette område. Der bør stilles specifikke sikkerhedskrav til tech-giganterne, så deres produkter er sikre, når de kommer på markedet – også for mennesker, der er psykisk sårbare.
Hans opfordring til fagfæller er klar:
– Vi skal være opmærksomme på, at AI kan spille en rolle i udviklingen af vrangforestillinger og mani. Det er et nyt fænomen, Psykiatrien er nødt til at forholde sig til.
FAKTA
- I denne podcast fra Jyllands Posten med deltagelse af Søren Dinesen Østergaard kan du høre mere om emnet: Kan ChatGPT udløse vrangforestillinger?
- Søren Dinesen Østegaards videnskabelige ledere om emnet:
- “Will Generative Artificial Intelligence Chatbots Generate Delusions in Individuals Prone to Psychosis?”
- “Generative Artificial Intelligence Chatbots and Delusions: From Guesswork to Emerging Cases”
- “Emotion contagion through interaction with generative artificial intelligence chatbots may contribute to development and maintenance of mania”