Från och med den 19 maj kommer Federal Trade Commission (FTC) att börja tillämpa en central del av Take It Down Act, en lag som ställer krav på webbplatser och digitala tjänster att snabbt ta bort icke samtyckande deepfakes. Plattformarna måste inom 48 timmar efter en anmälan från ett offer radera innehållet eller riskera höga böter och utredningar från FTC.
Lagen, som antogs av den amerikanska kongressen förra året, har tidigare främst riktat sig mot personer som skapar och publicerar sådant material. Nu är det istället de plattformar som sprider innehållet som står i fokus. De har fått ett år på sig att utveckla system för rapportering och borttagning av olagligt material. Under den nya tillämpningsperioden kan företag som inte följer reglerna drabbas av böter på upp till 53 088 dollar per överträdelse.
FTC:s ordförande Andrew Ferguson har i ett uttalande klargjort att myndigheten är redo att övervaka efterlevnaden, utreda brott och driva på tillämpningen av lagen. ”Att skydda utsatta personer – särskilt barn – från denna skadliga missbruk är en hög prioritet för vår myndighet och denna administration”, säger Ferguson.
Vad kräver lagen?
Enligt FTC:s nya riktlinjer omfattas följande av lagen:
- Icke samtyckande intim bild eller video som publiceras med hjälp av verkliga bilder av andra personer.
- AI-genererade eller manipulerade digitala förfalskningar (deepfakes).
Företagen måste dessutom:
- Göra det enkelt för offer utan konto att rapportera överträdelser.
- Presentera sina rapporterings- och borttagningsrutiner på hemsidan på ett tydligt och lättförståeligt sätt.
- Informera användarna om hur de kan begära borttagning av innehåll på ett klart och synligt sätt.
Lagen omfattar webbplatser, appar, sociala medier, bild- och videodelningstjänster samt spelplattformar.
FTC skickar varningar till teknikjättar
FTC har skickat brev till flera stora teknik- och sociala medieföretag, däribland Amazon, Alphabet, Apple, Meta, Microsoft, TikTok och X, för att klargöra hur myndigheten avser att övervaka efterlevnaden. Breven innehåller också rekommendationer om att företagen bör använda sig av hashing-teknik för att förhindra att borttaget material återpubliceras. Dessutom uppmanas företagen att dela sina resultat med organisationer som National Center for Missing and Exploited Children och StopNCII.org för att spåra spridningen av materialet på internet.
Deepfake-skandalen på X
Ett uppmärksammat fall som belyser problematiken inträffade tidigare i år när AI-tjänsten Grok, tillgänglig för användare på plattformen X, användes för att sprida icke samtyckande sexualiserade deepfakes av verkliga personer. X:s ägare, Elon Musk, möttes initialt av kritik men har sedan dess utsatts för flera rättsliga utredningar och stämningar kopplade till incidenten. Vissa världsledare har till och med krävt att appen ska förbjudas helt.
Experter välkomnar åtgärderna – men oroar sig för genomförandet
Becca Branum, chef för Free Expression Project vid Center for Democracy and Technology, menar att delar av FTC:s tillvägagångssätt – såsom krav på tydliga rapporteringsmöjligheter för offer – stämmer väl överens med de bästa metoderna som civilsamhällesorganisationer har förespråkat. Samtidigt uttrycker hon oro för hur lagen kommer att tillämpas i praktiken och om den kommer att nå sitt syfte att skydda utsatta personer effektivt.