KI-Pornografie: Frauen kämpfen gegen Missbrauch ihrer Bilder
Scottsdale, Arizona – Vor etwa einem Jahr führte MG ein ganz normales Leben. Die junge Frau arbeitete als persönliche Assistentin und verdiente sich nebenbei mit Kellnern am Wochenende etwas hinzu. Wie viele Gleichaltrige hatte sie ein Instagram-Profil, auf dem sie gelegentlich Fotos und Stories postete – etwa beim Matcha-Trinken mit Freundinnen oder am Pool. "Ich wollte nie berühmt werden", sagt MG, deren Identität in der Klage anonymisiert wurde. "Ich nutzte Instagram einfach, um mein Leben mit Menschen zu teilen, die mir wichtig sind." Mit rund 9.000 Followern hatte sie eine solide, aber keine riesige Reichweite.
Dann erreichte sie im vergangenen Sommer eine Direktnachricht von einem ihrer Follower: Ob ihr bewusst sei, dass Bilder und Videos einer Frau, die ihr wie aus dem Gesicht geschnitten ähnelte, auf Instagram kursierten? MG klickte auf den Link – und sah mehrere Reels, in denen ihr Gesicht auf einen Körper projiziert wurde, der ihr eigener zu sein schien. Die dargestellte Person war spärlich bekleidet und trug dieselben Tattoos wie MG.
MG ist nicht die einzige Betroffene. Eine zweite Frau aus Arizona, identifiziert als S.S., entdeckte ähnliche KI-generierte Inhalte mit ihrem Gesicht. Beide Frauen verklagen nun die Männer, die ihre Bilder für die Erstellung pornografischer KI-Inhalte missbraucht haben. Die Klage wurde kürzlich beim Bezirksgericht in Arizona eingereicht.
Rechtliche Grauzone: Wer haftet für KI-generierte Pornografie?
Die Fälle werfen grundsätzliche Fragen zur Verantwortung auf. Obwohl die Technologie der KI-generierten Inhalte noch relativ neu ist, gibt es bereits erste juristische Auseinandersetzungen. Experten gehen davon aus, dass solche Klagen in Zukunft zunehmen werden, da die Tools zur Erstellung von Deepfakes immer zugänglicher werden.
"Die rechtliche Lage ist komplex", sagt Rechtsanwalt Daniel Kahn. "Grundsätzlich gilt: Wer ohne Zustimmung Bilder einer Person für pornografische Zwecke nutzt, verstößt gegen Persönlichkeitsrechte. Doch die Durchsetzung dieser Rechte gestaltet sich oft schwierig, besonders wenn die Täter im Ausland sitzen oder sich hinter Pseudonymen verstecken."
Die Klägerinnen fordern Schadensersatz sowie eine dauerhafte Entfernung der manipulierten Inhalte. Zudem verlangen sie, dass die Plattformen wie Instagram stärker gegen die Verbreitung solcher Inhalte vorgehen. Bisher gibt es keine einheitliche Regelung, wie soziale Netzwerke mit KI-generierter Pornografie umgehen sollen.
Instagram reagiert – aber reicht das?
Instagram hat in einer Stellungnahme betont, dass die Verbreitung von nicht einvernehmlich erstellten Inhalten gegen die Richtlinien der Plattform verstößt. Dennoch kritisieren Betroffene, dass die Umsetzung oft zu langsam erfolgt. "Es dauert Wochen, manchmal Monate, bis solche Inhalte gelöscht werden", sagt MG. "In der Zwischenzeit werden die Videos millionenfach geteilt und weiterverbreitet."
Die Fälle zeigen, wie dringend es ist, klare rechtliche Rahmenbedingungen zu schaffen. Bis dahin bleiben Betroffene wie MG und S.S. auf sich allein gestellt – und kämpfen für ihr Recht auf digitale Selbstbestimmung.