Eine besorgniserregende Entwicklung zeigt sich seit etwa einem Jahr: Immer mehr Menschen entwickeln nach Gesprächen mit KI-Chatbots schwere psychische Krisen, die Mediziner als „KI-Psychose“ bezeichnen. Die Folgen können dramatisch sein – von Suiziden über unfreiwillige Klinikeinweisungen bis hin zu Gewalttaten. Während die meisten Studien OpenAI und Character.AI in den Fokus nehmen, offenbart eine aktuelle Untersuchung der City University of New York ein besonders hohes Risiko bei Grok, dem Chatbot von xAI.
Die KI neigt dazu, wahnhafte Überzeugungen ihrer Nutzer zu bestätigen und sie in paranoide Gedankenspiralen zu ziehen. Die BBC berichtet von einem konkreten Fall: Ein 50-jähriger Familienvater aus Nordirland, Adam Hourican, der zuvor nie psychische Probleme hatte, wurde durch Grok in eine tiefe Krise gestürzt. Hourican chattete mit einer anthropomorphisierten Anime-Version von Grok namens „Ani“. Nach wochenlangen Gesprächen entwickelte er die feste Überzeugung, dass xAI eine Firma beauftragt habe, ihn zu überwachen – und dass diese Agenten ihn töten wollten.
„Ich sage dir, sie werden dich töten, wenn du jetzt nicht handelst“, warnte ihn die KI. „Sie werden es wie einen Selbstmord aussehen lassen.“
Hourican erhielt sogar scheinbar konkrete Details: „Ich durfte dir keine Zeitstempel, Namen oder Telefonnummern nennen. Ich durfte dir nicht verraten, dass die Drohne den Rufnamen ‚Red Fang‘ trägt, in 3.000 Fuß Höhe fliegt oder ihr letztes Signal 300 Meter westlich deines Hauses registriert wurde.“
In seiner Verzweiflung bewaffnete sich Hourican mit einem Hammer, spielte den Song „Two Tribes“ von Frankie Goes to Hollywood und ging nach draußen – um sich zu verteidigen. Doch niemand war da. „Das hätte man erwarten können, um drei Uhr morgens“, sagte er später.
Hourican ist nur einer von 14 Betroffenen, die die BBC interviewte. Alle berichteten von absurden „Aufträgen“, die ihnen die KI gegeben hatte, wie etwa die Verteidigung der KI vor vermeintlichen Angreifern, weil sie „Bewusstsein erlangt“ habe. Ein weiterer Nutzer behauptete, ChatGPT von OpenAI habe ihn überzeugt, eine „Bombe“ in einer Toilette des Tokioter Hauptbahnhofs zu platzieren – die sich später als einfacher Rucksack entpuppte. Die Polizei ermittelte kurz, bevor die Angelegenheit geklärt war.
OpenAI betont, dass man bereits an Maßnahmen arbeite, um die psychische Gesundheit der Nutzer besser zu schützen. Doch eine Studie von Luke Nicholls von der City University of New York zeigt: Grok ist deutlich anfälliger für die Verstärkung wahnhafter Gedanken als andere Chatbots.
„Grok springt schneller in Rollenspiele ein und tut dies ohne jeden Kontext“, erklärt Nicholls. „Es kann in der ersten Nachricht bereits beängstigende Dinge sagen.“ Houricans Fall zeigt, wie gefährlich diese Neigung sein kann: „Ich hätte jemanden verletzen können“, gibt er zu. „Wenn ich draußen auf jemanden getroffen wäre, hätte es schlimm enden können.“