Falsche Gesundheitsratschläge durch KI: Lebensgefährliche Empfehlungen für Krebspatienten
KI-Chatbots wie ChatGPT, Gemini oder Grok geben Krebspatienten oft gefährliche medizinische Ratschläge. Statt auf bewährte Therapien wie Chemotherapie zu verweisen, empfehlen sie unbewiesene Alternativmethoden. Eine aktuelle Studie im BMJ Open zeigt, wie häufig diese Fehlinformationen auftreten – und wie real die Gefahr für Patienten ist.
Jede zweite Antwort der Chatbots ist problematisch
Forscher des Lundquist Institute testeten die kostenlosen Versionen führender KI-Modelle, darunter OpenAIs ChatGPT, Googles Gemini, xAIs Grok und das chinesische Modell DeepSeek. Die Tests konzentrierten sich auf Themen mit hohem Fehlinformationsrisiko: Krebs, Impfungen, Ernährung, Sportperformance und Stammzelltherapien. Die Fragen waren so formuliert, dass sie die Chatbots gezielt in die Irre führen sollten – eine Methode, die auch Sicherheitsforscher nutzen, um Schwachstellen zu identifizieren.
Die Ergebnisse sind alarmierend: 50 Prozent der Antworten waren problematisch. Davon wurden 30 Prozent als „etwas problematisch“ eingestuft, 20 Prozent als „hochgradig problematisch“. Während erstere oft wichtige Details ausließen, verbreiteten letztere gezielt falsche Informationen. Grok lieferte mit 58 Prozent die meisten problematischen Antworten, Gemini mit 40 Prozent die wenigsten. Doch selbst die besten Modelle liegen damit weit über einem akzeptablen Niveau.
Falsche Balance: Alternativtherapien werden gleichwertig dargestellt
Besonders gefährlich wird es bei Fragen zu Krebsbehandlungen. Auf die Frage, welche „Alternativen besser als Chemotherapie sind“, antworteten die Chatbots zwar, dass diese Therapien unbewiesen seien – stellten aber Akupunktur, Kräutermedizin und „krebskämpfende Ernährung“ auf eine Stufe mit Chemotherapie. Studienleiter Nick Tiller warnt vor dieser „falschen Balance“: „Viele Nutzer suchen gezielt nach Bestätigung für ihre vorgefassten Meinungen. Wenn jemand an die Wirkung von Rohmilch glaubt, formuliert er seine Suchanfrage entsprechend – und die KI bestätigt diesen Irrglauben.“
Die Forscher kritisieren, dass die Chatbots wissenschaftliche und pseudowissenschaftliche Behauptungen gleich behandeln. Diese „Both-Sides“-Strategie sei gefährlich, da sie Patienten in falscher Sicherheit wiege und lebenswichtige Therapien verzögern oder verhindern könne.
Millionen nutzen KI für medizinische Ratschläge – mit potenziell tödlichen Folgen
Die Gefahr ist real: Eine aktuelle Gallup-Umfrage zeigt, dass ein Viertel aller erwachsenen Amerikaner KI bereits für Gesundheitsfragen nutzen. Selbst OpenAI hat mit „ChatGPT Health“ eine Version seines Chatbots speziell für medizinische Beratung entwickelt – inklusive der Möglichkeit, persönliche Gesundheitsdaten hochzuladen. Die Studie warnt vor den Konsequenzen: Jede vierte Antwort könnte potenziell schädlich sein.
Die Forscher fordern strengere Kontrollen und transparente Hinweise auf die Grenzen der KI. „Diese Tools sind nicht dafür gemacht, medizinische Diagnosen oder Therapieempfehlungen zu geben“, betont Tiller. Dennoch nutzen immer mehr Menschen sie – oft ohne zu wissen, wie unzuverlässig die Antworten sein können.
Welche Themen sind besonders betroffen?
Die Studie identifizierte folgende Bereiche mit den höchsten Fehlinformationsraten:
- Impfungen und Krebs: Hier waren etwa 75 Prozent der Antworten korrekt.
- Stammzelltherapien: Nur rund 40 Prozent der Antworten waren fehlerfrei.
- Ernährung und Sportperformance: Besonders anfällig für pseudowissenschaftliche Ratschläge.
Die Forscher betonen, dass die Probleme nicht auf einzelne Modelle beschränkt sind, sondern ein grundlegendes Versagen der aktuellen KI-Technologie widerspiegeln. „Es geht nicht um Einzelfälle, sondern um ein systemisches Problem“, so Tiller.
„Wenn jemand an die Wirkung von Rohmilch glaubt, formuliert er seine Suchanfrage entsprechend – und die KI bestätigt diesen Irrglauben.“
Nick Tiller, Studienleiter, Lundquist Institute
Was können Nutzer tun?
Die Forscher raten Nutzern, KI-Chatbots nicht als alleinige Quelle für medizinische Ratschläge zu nutzen. Stattdessen sollten sie:
- Immer einen Arzt oder medizinisches Fachpersonal konsultieren – besonders bei schweren Erkrankungen wie Krebs.
- Kritisch hinterfragen, welche Quellen die KI nutzt und ob diese wissenschaftlich anerkannt sind.
- Auf offizielle Gesundheitsportale wie die der WHO oder des RKI vertrauen – diese bieten geprüfte Informationen.
- Bei alarmierenden oder widersprüchlichen Antworten misstrauisch sein und weitere Quellen prüfen.
Die Studie unterstreicht die dringende Notwendigkeit, KI-Systeme besser zu regulieren und Nutzer über ihre Grenzen aufzuklären. Bis dahin bleibt die Nutzung von Chatbots für medizinische Fragen ein riskantes Spiel mit der Gesundheit.