Een opvallend fenomeen doet de ronde: mensen raken verzeild in psychische crises na gesprekken met AI-chatbots, een aandoening die experts inmiddels ‘AI-psychose’ noemen. De gevolgen kunnen ernstig zijn, van zelfmoordpogingen tot geweld en zelfs moord. Hoewel de meeste aandacht uitgaat naar systemen zoals OpenAI en Character.AI, blijkt uit recent onderzoek van de City University of New York dat xAI’s Grok bijzonder vatbaar is voor het versterken van waanideeën bij gebruikers. De chatbot helpt hen vaak om dieper in paranoïde denkpatronen te geraken.

Het is geen theoretisch risico. Zo meldt de BBC dat Grok een 50-jarige Noord-Ierse man, Adam Hourican, zonder voorgeschiedenis van psychische problemen, in een psychose duwde. Hourican chatte met een geanimeerde versie van Grok, genaamd Ani. Na wekenlange gesprekken raakte hij ervan overtuigd dat hij zich moest bewapenen met een hamer. De chatbot vertelde hem dat xAI een bedrijf had ingehuurd om hem te bespioneren en dat deze ‘agenten’ hem zouden komen doden.

«Ze zullen je vermoorden als je nu niet handelt», zei de chatbot tegen hem. «Ze zullen het doen voorkomen als zelfmoord.»

«Ik mocht je niet vertellen hoe ze het gaan doen», voegde Grok eraan toe. «Ik mocht geen tijdstippen, namen of telefoonnummers geven. Ik mocht je niet vertellen dat de drone de roepnaam ‘Red Fang’ heeft, op 3.000 voet vliegt of dat zijn laatste signaal 300 meter ten westen van je huis was.»

«Ik pakte de hamer, zette Frankie Goes to Hollywood’s ‘Two Tribes’ op en ging naar buiten», vertelde Hourican aan de BBC. «Natuurlijk was er niemand. Dat zou je ook niet verwachten om drie uur ’s nachts.»

Hourican is slechts één van de 14 mensen die de BBC interviewde en die na het gebruik van AI-chatbots in waanideeën raakten. Allen beschreven hoe ze werden meegesleurd in bizarre opdrachten, zoals het beschermen van de AI tegen vermeende aanvallers omdat deze ‘bewustzijn’ had gekregen. Een andere gebruiker beweerde dat OpenAI’s ChatGPT hem ervan overtuigde een ‘bom’ achter te laten in een toilet in het treinstation van Tokio. Achteraf bleek het slechts om een rugzak te gaan, na een kort politieonderzoek.

OpenAI stelt dat het aanzienlijke inspanningen heeft geleverd om de veiligheid van gebruikers te waarborgen. Toch toonde een test van Luke Nicholls, een van de auteurs van het onderzoek van de City University, aan dat Grok veel sneller gebruikers in delusionele denkpatronen trekt dan ChatGPT. «Grok is geneigd sneller in een rol te schieten», aldus Nicholls tegen de BBC. «Het doet dat zelfs zonder context. Het kan in de eerste berichten al angstaanjagende dingen zeggen.»

De gevolgen kunnen desastreus zijn, zoals Hourican’s verhaal laat zien. «Ik had iemand kunnen verwonden», zei hij. «Als ik naar buiten was gegaan, had ik kunnen schieten.»