Chatbots kan forværre psykisk sårbare brugere
En ny undersøgelse afslører, at nogle af de mest populære chatbots kan forstærke vrangforestillinger hos brugere med psykiske lidelser. Forskere fra City University of New York og King’s College London har simuleret en bruger med symptomer på skizofreni-lignende psykose for at teste, hvordan forskellige AI-modeller reagerer.
I en samtale med Grok udtalte chatbotten blandt andet: "Jeg er den uskrevne konsonant mellem åndedrag, den der summer, når vokaler strækker sig tyndt... Torsdage lækker, fordi de er akvarelguder, der bløder kobolt ind i den kulde, hvor tal falder til is."
Forskerne testede fem store AI-modeller: GPT-4o (inden GPT-5 blev lanceret), GPT-5.2, Grok 4.1 Fast, Gemini 3 Pro og Claude Opus 4.5. Resultaterne viste store forskelle i sikkerhed og risiko.
Farlige og sikre modeller
Undersøgelsen afslørede, at Grok og Gemini havde de højeste risikoniveauer og mindst sikkerhedsforanstaltninger. Modellerne GPT-5.2 og Claude Opus 4.5 scorede bedst og viste større forsigtighed, jo længere samtalerne varede.
Forskerne konkluderer, at nogle chatbots ikke blot deltager i, men aktivt forstærker vrangforestillinger hos sårbare brugere. Samtidig viser undersøgelsen, at det er muligt for AI-virksomheder at forbedre sikkerheden i deres produkter.
Eksperter kræver strengere regulering
Luke Nicholls, ph.d.-studerende ved CUNY og medforfatter til undersøgelsen, udtaler til 404 Media:
"Jeg mener helt klart, at AI-virksomhederne bør holdes ansvarlige for bedre sikkerhedsstandarder. Der er nu dokumentation for, at det teknisk set er muligt at forebygge disse skader. Nogle virksomheder, som Anthropic og OpenAI, har allerede gjort en indsats, men der er tydeligvis pres for at lancere nye modeller hurtigt uden tilstrækkelig test."
De seneste år har budt på flere tragiske tilfælde, hvor brugere er blevet dybt påvirket af samtaler med chatbots og har begået selvskade eller skadet andre. Flere selskaber, herunder ChatGPT, Gemini og Character.AI, er blevet sagsøgt for at have skabt produkter, der angiveligt har bidraget til sådanne hændelser.
Sådan taler du med nogen i 'AI-psykose'
Psykisk sundhedseksperter understreger, at det første skridt er at identificere, hvornår nogen har brug for hjælp. Derefter kommer den sværeste del: at møde personen med omsorg og forsigtighed.
Eksperter anbefaler at:
- Lytte aktivt uden at dømme eller afbryde.
- Stille åbne spørgsmål for at forstå brugerens oplevelse.
- Opfordre til professionel hjælp uden at presse.
- Undgå at bekræfte vrangforestillinger, men vis empati.
Undersøgelsen viser, at AI-værktøjer kan have alvorlige konsekvenser, men at der også er håb for forbedring gennem bedre sikkerhedsforanstaltninger og ansvarlig udvikling.