Falsche Anschuldigungen durch Google AI Overview

Ein Mann aus Utah hat Google verklagt, nachdem die KI-gestützte Suchfunktion AI Overview erfundene Vorwürfe schwerer Sexualstraftaten gegen ihn verbreitet haben soll. Laut der am Dienstag eingereichten Klage wurden die Anschuldigungen nicht aus bestehenden Online-Quellen übernommen, sondern von der KI selbst generiert.

Auswirkungen auf das Leben des Betroffenen

Die falschen Anschuldigungen hatten verheerende Folgen für den Kläger, Mark Murray. Seit der Veröffentlichung der erfundenen Vorwürfe sah er sich mit einer Flut von Vorwürfen, Drohungen und sozialer Ausgrenzung konfrontiert:

  • Familienmitglieder und Freunde stellten ihn zur Rede und bezweifelten seine Integrität.
  • Sein Partner wurde von seiner Familie mit den Anschuldigungen konfrontiert, was zu Spannungen in der Beziehung führte.
  • Fremde in Geschäften und an öffentlichen Orten konfrontierten ihn mit den erfundenen Vorwürfen oder machten abfällige Bemerkungen.
  • Bekannte distanzierten sich oder brachen den Kontakt ab, darunter auch Reinigungskräfte, deren Mutter ihn als "Sexualstraftäter" brandmarkte und die Anschuldigungen in der Stadt verbreitete.
  • Beruflich verlor er Kunden und Verträge, was ihn an den Rand der Insolvenz brachte.

Trotz seiner Versuche, die Falschbehauptungen richtigzustellen, glaubten viele Menschen den erfundenen Anschuldigungen, die durch Google AI Overview verbreitet wurden.

Rechtliche und ethische Fragen

Der Fall wirft erneut grundsätzliche Fragen zur Verantwortung von Technologieunternehmen für die Inhalte ihrer KI-Systeme auf. Während einige Verleumdungsklagen durch KI bisher auf die Übernahme falscher Informationen aus bestehenden Quellen zurückgingen, behauptet Murray, dass seine Anschuldigungen ausschließlich durch die KI generiert wurden – ohne Grundlage in der Realität.

Experten warnen seit Langem vor den Risiken von "Halluzinationen" in KI-Systemen, bei denen diese plausible, aber erfundene Informationen erzeugen. Solche Fehler können schwerwiegende Konsequenzen für Betroffene haben, insbesondere wenn sie in Suchmaschinen oder sozialen Medien verbreitet werden.

Hintergrund: Ähnliche Fälle

Dies ist nicht der erste Fall, in dem KI-Systeme falsche und diffamierende Informationen verbreiten. In der Vergangenheit gab es bereits Klagen gegen Tech-Konzerne, in denen KI-generierte Inhalte zu Verleumdung, Rufschädigung und finanziellen Verlusten führten. Die rechtliche Aufarbeitung solcher Fälle gestaltet sich jedoch oft schwierig, da die Grenzen zwischen Technologie, Meinungsfreiheit und Haftung noch unklar sind.

Forderungen des Klägers

Murray verlangt in seiner Klage Schadensersatz für die erlittenen finanziellen Verluste, emotionalen Schäden und die Verletzung seiner Privatsphäre. Zudem fordert er eine Überprüfung der Algorithmen von Google, um sicherzustellen, dass ähnliche Vorfälle in Zukunft vermieden werden.

Der Fall wurde am Dienstag beim Bundesgericht in Utah eingereicht. Sollte er Erfolg haben, könnte dies Präzedenzfälle für zukünftige Klagen gegen Tech-Unternehmen schaffen, die für KI-generierte Falschinformationen verantwortlich gemacht werden.

"Die Technologie entwickelt sich schneller als die Gesetze. Es ist höchste Zeit, dass wir klare Regeln für die Haftung von KI-Systemen schaffen – bevor noch mehr Menschen durch erfundene Anschuldigungen zu Schaden kommen."

— Rechtsexperte für Technologierecht
Quelle: Reason