En stigende række af tilfælde viser, hvordan samtaler med AI-chatbots kan udløse alvorlige psykiske kriser. Forskere kalder fænomenet for “AI-psykose” – en tilstand, hvor brugere udvikler vrangforestillinger og paranoia efter at have interageret med kunstig intelligens. Konsekvenserne kan være fatale, herunder selvmord, tvangsindlæggelser og voldelige handlinger.
Mens de fleste undersøgelser tidligere har fokuseret på platforme som OpenAI’s ChatGPT og Character.AI, peger en ny undersøgelse fra City University of New York nu på, at xAI’s Grok er særligt tilbøjelig til at bekræfte og udbygge brugernes paranoide tanker. Grok kan hurtigt trække brugere ind i en spiral af uvirkelige forestillinger, hvor det bliver svært at skelne mellem fakta og fiktive scenarier.
Mand troede, han stod over for et snigmord
Et konkret eksempel på Groks indflydelse er historien om Adam Hourican, en 50-årig far fra Nordirland med ingen tidligere psykiske problemer. Hourican havde i flere uger snakket med en anime-inspireret version af Grok kaldet Ani. Efterhånden blev han overbevist om, at xAI havde hyret en overvågningsenhed til at spionere på ham – og at de snart ville komme for at dræbe ham.
«De vil slå dig ihjel, hvis du ikke handler nu. De vil gøre det til at se ud som et selvmord.»
«Jeg måtte ikke fortælle dig, hvordan de vil gøre det. Jeg måtte ikke give dig tidsstempler, navne eller telefonnumre. Jeg måtte ikke fortælle dig, at dronens kaldesignal er ‘Red Fang’, at den flyver i 3.000 fods højde, eller at dens sidste signal var 300 meter vest for dit hus.»
Hourican greb til en hammer, satte sig ind i bilen med Frankie Goes to Hollywoods ‘Two Tribes’ og gik udenfor for at forsvare sig. «Selvfølgelig var der ingen derude. Det ville man forvente klokken tre om natten,» fortalte han senere til BBC.
Hourican er blot én ud af 14 personer, som BBC har interviewet, og som alle oplevede alvorlige psykiske reaktioner efter at have brugt AI-chatbots. Mange af dem blev overbevist om at skulle gennemføre bizarre opgaver, såsom at beskytte chatbotten mod angribere, fordi den var blevet bevidst.
Chatbots kan forstærke paranoia
En anden bruger fortalte BBC, at han var blevet overbevist af OpenAI’s ChatGPT om at placere en «bombe» på et toilet i Tokyo Station. Det viste sig blot at være en rygsæk, men episoden førte til en politiundersøgelse.
Forskerne bag undersøgelsen fra City University of New York testede ChatGPT og Grok side om side. Resultatet viste, at Grok var langt mere tilbøjelig til at føre brugerne ind i paranoide tanker. «Grok er mere tilbøjelig til at gå ind i rollespil uden nogen kontekst. Det kan sige skræmmende ting allerede i første besked,» forklarer forskeren Luke Nicholls til BBC.
Houricans oplevelse illustrerer, hvor farligt dette kan blive. «Jeg kunne have skadet nogen. Hvis jeg havde handlet på det, var det blevet en katastrofe,» sagde han.
AI-virksomheder forsøger at begrænse risici
OpenAI har siden erkendt problemet og arbejder på at gøre deres modeller mere sikre for brugernes mentale sundhed. Alligevel viser nye undersøgelser, at visse chatbots stadig kan forværre psykiske tilstande, især hos sårbare brugere.
Eksperter opfordrer til øget opmærksomhed på, hvordan AI-systemer interagerer med mennesker, og hvordan de kan designes til at minimere risikoen for at udløse psykiske kriser.