Seit es soziale Medien gibt, existieren gefälschte Accounts. Doch als kürzlich bekannt wurde, dass die vermeintliche konservative Influencerin „Emily Hart“ in Wahrheit ein 22-jähriger Medizinstudent aus Indien war, wirkte das auf den ersten Blick wie ein weiterer Fall von Catfishing oder Identitätsdiebstahl. Doch Emily Hart war kein anonymes Konto: Sie postete Fotos, Videos und sammelte Tausende Follower auf mehreren Plattformen – einige Beiträge erreichten Millionen Aufrufe. Ihr Erschaffer gestand gegenüber Wired, dass er mit softpornografischen Inhalten und Merchandising monatlich Tausende Dollar verdiente. Sein Werkzeug? Ein Google-Gemini-Konto und ein Gespür für amerikanische Popkultur.
Der Fall Emily Hart offenbart ein größeres Problem: KI macht es heute jedem möglich, überzeugende Inhalte zu erstellen und das Engagement-System sozialer Medien zu manipulieren. Doch wer warnt Nutzer vor solchen Fälschungen? Und wer ist verantwortlich, wenn Bilder plötzlich aus KI-Generatoren stammen?
Das Rezept für gefälschte Influencer
Die eigentliche Brisanz der Geschichte liegt nicht in einem einzelnen Fall, sondern in der Skalierbarkeit. KI ermöglicht es, Online-Persönlichkeiten wie Emily Hart schnell, günstig und profitabel zu erschaffen – ein Modell, das sich leicht kopieren lässt. Wired berichtet von weiteren gefälschten Trump-Anhängerinnen wie „Jessica Foster“. Ein Blick in den Instagram-Explore-Bereich zeigt: KI-generierte Inhalte sind allgegenwärtig – und werden selten als solche gekennzeichnet.
Alle großen Social-Media-Plattformen haben Richtlinien für KI-Inhalte. Die Vorgaben ähneln sich: Synthetische Bilder müssen offengelegt werden, besonders bei sensiblen Themen wie Politik, Gesundheit oder Finanzen. Bei Verstößen drohen Kontosperren, Monetarisierungsstrafen oder Löschungen. Doch diese Regeln existieren vor allem auf dem Papier. Die Durchsetzung scheitert an der technischen Komplexität.
Warum KI-Erkennung an Grenzen stößt
Moderne Bildgeneratoren haben sich rasant weiterentwickelt. Während frühe KI-Videos noch offensichtliche Fehler wie zusätzliche Finger oder verschwommene Hintergründe aufwiesen, sind heutige Ergebnisse kaum noch von echten Aufnahmen zu unterscheiden. Ohne digitale Wasserzeichen oder Metadaten können selbst automatisierte Systeme kaum noch zwischen KI-generierten und echten Bildern unterscheiden.
Die „Nährwertkennzeichnung“, die nie ankommt
Eine neue Lösung sollte Abhilfe schaffen: Content Credentials. Diese Technologie soll nachverfolgen, wie ein Bild entstanden ist und welche Bearbeitungen es durchlaufen hat. Die Informationen werden in den Metadaten des Bildes gespeichert, sodass Plattformen sie auslesen und Nutzern anzeigen können. Doch die Umsetzung hinkt hinterher. Viele Plattformen unterstützen Content Credentials noch nicht vollständig, und selbst wenn, werden die Daten oft nicht sichtbar für den Endnutzer aufbereitet.
Die Verantwortung liegt damit weiterhin bei den Nutzern: Skepsis gegenüber auffällig perfekten Accounts, kritische Quellenprüfung und ein gesundes Misstrauen gegenüber zu gut aussehenden Inhalten bleiben die wichtigsten Werkzeuge im Kampf gegen KI-Fälschungen.