Künstliche Intelligenz verändert die Medizin rasant – doch wie sicher und effektiv sind KI-Chatbots in der psychischen Gesundheitsversorgung? Google Clinical Director David Feinberg warnt vor unkritischer Nutzung dieser Technologien.

In einem exklusiven Interview mit STAT betont Feinberg, dass allgemeine Chatbots wie Google Bard zwar nützlich sein können, aber keine professionelle psychotherapeutische Behandlung ersetzen dürfen. Besonders in Krisensituationen bestehe die Gefahr von Fehlinformationen oder verzögerter Hilfe.

Warum KI in der Psychotherapie an Grenzen stößt

  • Fehlende menschliche Empathie: Chatbots analysieren zwar Sprache, können aber keine echte emotionale Verbindung aufbauen – ein zentraler Faktor in der Therapie.
  • Risiko von Fehldiagnosen: Ohne fundierte medizinische Ausbildung können KI-Systeme Symptome falsch interpretieren oder gefährliche Empfehlungen geben.
  • Ethische Bedenken: Wer haftet bei Schäden durch KI-gestützte Beratung? Feinberg fordert klare regulatorische Rahmenbedingungen.

Googles Ansatz: KI als Unterstützung, nicht als Ersatz

Feinberg betont, dass Google KI primär als Hilfsmittel für Therapeuten einsetzen will – etwa zur Dokumentation oder Voranalyse von Patientendaten. „KI kann repetitive Aufgaben übernehmen, aber sie darf nie die menschliche Komponente ersetzen“, so der Mediziner.

Besonders in Ländern mit akutem Therapeutenmangel könnte KI jedoch kurzfristig Lücken schließen. Feinberg verweist auf Pilotprojekte, in denen Chatbots als erste Anlaufstelle für Betroffene dienen – allerdings immer mit der Option auf menschliche Nachfolgeberatung.

Experten fordern strengere Regulierung

Die Diskussion um KI in der Psychotherapie spaltet die Fachwelt. Während einige Innovationen wie die von Google als Chance sehen, warnen andere vor unvorhersehbaren Konsequenzen. Die Weltgesundheitsorganisation (WHO) hatte bereits 2023 Leitlinien für den ethischen Einsatz von KI in der Medizin veröffentlicht – doch konkrete Umsetzung fehlt vielerorts.

„KI kann Leben retten, aber sie kann auch Schaden anrichten, wenn sie falsch eingesetzt wird. Wir brauchen Transparenz und klare Grenzen.“
— David Feinberg, Google Clinical Director

Was Patienten jetzt tun können

Feinberg rät Betroffenen, bei psychischen Krisen nicht ausschließlich auf Chatbots zu vertrauen. Stattdessen sollten sie:

  • Offizielle Hilfsangebote wie die Telefonseelsorge (0800 111 0 111) oder psychologische Notdienste kontaktieren.
  • Bei der Nutzung von KI-Tools auf zertifizierte Anbieter achten (z. B. solche mit medizinischer Zulassung).
  • Kritisch hinterfragen, ob die Technologie wirklich hilft – oder nur Zeit kostet.

Die Debatte zeigt: KI wird die Medizin verändern – doch ihr Einsatz muss verantwortungsvoll gestaltet werden. Technologie darf den Menschen nicht ersetzen, sondern nur unterstützen.

Quelle: STAT News