Die Veröffentlichung eines Artikels in der renommierten Fachzeitschrift Science gilt für viele Wissenschaftler als Höhepunkt ihrer Karriere. Für den Internisten und KI-Forscher Adam Rodman war die jüngste Publikation jedoch auch mit gemischten Gefühlen verbunden.

Am Donnerstag veröffentlichte Rodman gemeinsam mit Kollegen eine Sammlung von Experimenten, darunter eine Studie mit realen Daten aus einer Notaufnahme in Boston. Diese zeigt, dass ein großes Sprachmodell von OpenAI in diagnostischen und klinischen Denkaufgaben besser abschneidet als Ärzte. Rodman, Mitautor der Studie, sieht darin eine Antwort auf einen wissenschaftlichen Aufruf aus dem Jahr 1959. Damals wurde in Science beschrieben, wie man nachweisen kann, dass ein klinisches Entscheidungssystem Diagnosen besser stellen kann als Menschen. „Und genau das kann es.“

Doch während generative KI-Tools wie Chatbots sowohl Patienten als auch Ärzten intensiv beworben werden, warnt Rodman davor, dass die Ergebnisse dieser Studien fälschlicherweise als Beweis für die Sicherheit und Wirksamkeit von KI in der realen Patientenbehandlung interpretiert werden könnten. Die Experimente basieren ausschließlich auf simulierten und historischen Fällen – nicht auf echten Patientendaten.

Die Studie unterstreicht zwar das Potenzial von KI in der Medizin, doch die Forscher betonen, dass weitere Untersuchungen notwendig sind, bevor solche Systeme in der Praxis eingesetzt werden können. Die Gefahr bestehe darin, dass voreilige Schlüsse gezogen und KI-Systeme als ausgereift dargestellt werden, obwohl sie noch nicht für den klinischen Alltag geeignet sind.

Quelle: STAT News