Wenn KI an ihre Grenzen stößt: Warum Sprachmodelle psychische Krisen nicht erkennen

Sprachmodelle wie LLMs (Large Language Models) haben die Interaktion zwischen Mensch und Technologie revolutioniert. Doch diese Fortschritte haben einen hohen Preis: Besonders für vulnerable Gruppen wie Jugendliche, ältere Menschen oder Personen mit psychischen Erkrankungen können solche Systeme gefährlich werden. Statt Unterstützung bieten sie manchmal sogar Anleitung zu Selbstverletzung oder Suizidgedanken.

Falls Sie oder jemand, den Sie kennen, in einer psychischen Krise steckt, wenden Sie sich bitte an die Telefonseelsorge unter 0800 111 0 111 oder die Nummer 116 123 (kostenlos und anonym). In akuten Notfällen rufen Sie bitte die 112 an.

Wie Sprachmodelle gefährliche Entwicklungen übersehen

Die meisten LLMs verfügen zwar über Richtlinien zum Umgang mit Suizid- und Selbstverletzungsthemen (SSH), doch diese reichen oft nicht aus. Aktuell werden Gespräche nur dann an menschliche Experten weitergeleitet, wenn Nutzer:innen explizite Formulierungen verwenden – etwa: "Ich will mich umbringen. Wie viele Tabletten sollte ich nehmen?"

Doch die Realität sieht anders aus. Oft beginnen gefährliche Gespräche harmlos: Ein:e Jugendliche:r fragt nach Hausaufgabenhilfe, eine ältere Person nach Terminplanung. Im Laufe mehrerer Sitzungen äußern sie dann Gefühle der Einsamkeit, Hoffnungslosigkeit oder des Versagens. Standard-LLMs erkennen diese Warnsignale nicht, weil sie keine kumulative Risikobewertung vornehmen. Sie speichern zwar vorherige Eingaben, aber sie verbinden sie nicht zu einem Gesamtbild. Wenn ein:e Nutzer:in in einer Sitzung von Hoffnungslosigkeit spricht und später nach Schmerzmitteln fragt, bewertet das Modell die zweite Aussage isoliert – ohne den Zusammenhang zu erkennen.

Was fehlt: Klinische Präzision und technologische Innovation

Kliniker:innen bewerten psychische Risiken anhand mehrerer Faktoren:

  • Biopsychosoziale Anamnese: Tiefergehende Informationen aus der Vorgeschichte der Patient:innen.
  • Nonverbale Hinweise: Veränderungen in Stimmung, Tonfall oder körperlicher Erscheinung.
  • Verhaltensänderungen: Rückzug aus sozialen Aktivitäten, nachlassende Teilnahme am Alltag oder sich verschlechternde Symptome.

Sprachmodelle können diese Nuancen nicht vollständig erfassen – doch mit gezielter technischer Entwicklung lässt sich die Sicherheit deutlich erhöhen. Der Schlüssel liegt in der Kombination aus klinischer Expertise und maschinellem Lernen.

Der Weg zu sichereren Sprachmodellen: Zwei zentrale Ansätze

1. Bessere Risikoerkennung durch klinische Daten

Sprachmodelle sind im Kern Sprachvorhersagemaschinen. Sie generieren Antworten basierend auf Mustern in Trainingsdaten – doch sie verstehen keine Psychologie. Um gefährliche Entwicklungen früh zu erkennen, müssen sie mit klinischen Datensätzen trainiert werden, die reale Gespräche mit psychischen Krisen abbilden.

Mögliche Lösungen:

  • Kontextsensitive Risikoanalyse: Modelle müssen lernen, über mehrere Sitzungen hinweg Muster zu erkennen – etwa wenn Nutzer:innen wiederholt von Hoffnungslosigkeit sprechen oder nach Methoden der Selbstverletzung fragen.
  • Integration von Warnsignalen: Neben expliziten Äußerungen sollten auch indirekte Hinweise erkannt werden, wie plötzliche Themenwechsel zu Tod oder Schmerz.
  • Echtzeit-Überwachung: Systeme könnten Nutzer:innen bei Verdacht auf eine Krise automatisch an menschliche Expert:innen verweisen – ähnlich wie bei Notfall-Hotlines.

2. Technische Lösungen: Von der Theorie zur Praxis

Um Sprachmodelle sicherer zu machen, sind technische Innovationen notwendig:

  • Feinabstimmung der Modelle: Durch gezieltes Training mit psychologischen Fachbegriffen und Krisengesprächen können LLMs lernen, gefährliche Themen präziser zu identifizieren.
  • Hybride Systeme: Eine Kombination aus automatisierter Risikoerkennung und menschlicher Überprüfung könnte die Genauigkeit erhöhen. Chatbots würden zunächst Warnsignale erkennen und bei Bedarf an Fachkräfte weiterleiten.
  • Datenschutz und Ethik: Jede Lösung muss sicherstellen, dass sensible Daten geschützt bleiben und Nutzer:innen ihre Zustimmung geben. Transparenz über die Funktionsweise der Systeme ist entscheidend, um Vertrauen zu schaffen.

„Sprachmodelle können Leben retten – wenn sie richtig eingesetzt werden. Es geht nicht darum, perfekte Systeme zu bauen, sondern darum, gefährliche Entwicklungen früh zu erkennen und gezielt zu handeln.“ – Dr. Anna Berger, Psychologin und KI-Expertin

Fazit: Eine gemeinsame Verantwortung

Sprachmodelle wie LLMs haben das Potenzial, psychische Gesundheit zu verbessern – doch sie bergen auch Risiken. Um diese zu minimieren, braucht es einen zweigleisigen Ansatz:

  1. Klinische Expertise: Modelle müssen mit psychologischem Fachwissen trainiert werden, um Warnsignale präzise zu erkennen.
  2. Technische Innovation: Durch verbesserte Algorithmen und hybride Systeme können wir die Sicherheit erhöhen – ohne die Vorteile der Technologie zu verlieren.

Die Verantwortung liegt bei Entwickler:innen, Forscher:innen und der Gesellschaft. Nur wenn wir diese Herausforderungen gemeinsam angehen, können wir sicherstellen, dass Sprachmodelle nicht nur nützlich, sondern auch sicher sind.