OpenAI führt eine neue, optionale Sicherheitsfunktion für ChatGPT ein. Erwachsene Nutzer können ab sofort eine Vertrauensperson festlegen, die im Falle von psychischen Krisen oder Selbstgefährdung automatisch informiert wird. Dazu zählen etwa Themen wie Suizidgedanken oder Selbstverletzung, die im Chat mit dem KI-Assistenten besprochen werden.
Wie die Funktion „Trusted Contact“ funktioniert
Sobald ChatGPT Anzeichen für eine mögliche Krisensituation erkennt, wird die zuvor benannte Vertrauensperson – etwa Familienmitglieder, Freunde oder Betreuer – per E-Mail oder SMS benachrichtigt. OpenAI betont, dass diese Funktion eine zusätzliche Unterstützung neben bestehenden Hilfsangeboten wie lokalen Hotlines darstellt.
„Trusted Contact basiert auf einem einfachen, aber wissenschaftlich fundierten Prinzip: In einer Krise kann der Kontakt zu einer vertrauten Person lebensrettend sein.“
— OpenAI in der offiziellen Ankündigung
Zielgruppe und Datenschutz
Die Funktion richtet sich zunächst an erwachsene Nutzer in den USA und ist optional. OpenAI stellt klar, dass die Kommunikation zwischen Nutzer und ChatGPT weiterhin vertraulich bleibt. Die Benachrichtigung an die Vertrauensperson erfolgt nur, wenn konkrete Warnsignale erkannt werden. Nutzer können die Funktion jederzeit deaktivieren oder die Vertrauensperson ändern.
Hintergrund: Warum diese Funktion wichtig ist
Psychische Gesundheit und Krisenintervention gewinnen zunehmend an Bedeutung – auch im Kontext von KI-Tools. Studien zeigen, dass viele Menschen KI-Assistenten wie ChatGPT nutzen, um über belastende Themen zu sprechen. Die neue Funktion soll hier eine Brücke zu menschlicher Unterstützung schlagen und im Ernstfall schnelle Hilfe ermöglichen.
Reaktionen und Kritik
Während einige die Initiative begrüßen, gibt es auch kritische Stimmen. Datenschützer weisen darauf hin, dass die automatische Weiterleitung sensibler Inhalte ohne explizite Zustimmung des Nutzers problematisch sein könnte. OpenAI betont jedoch, dass die Funktion transparent gestaltet ist und Nutzer die Kontrolle behalten.
Ausblick: Weitere Sicherheitsmaßnahmen geplant
OpenAI kündigt an, die Funktion schrittweise auszurollen und in Zukunft möglicherweise auch auf andere Länder auszuweiten. Zudem sollen weitere Tools zur psychischen Gesundheit integriert werden, etwa direkte Verknüpfungen zu professionellen Hilfsangeboten.