La Federal Trade Commission (FTC) inizierà a far rispettare una delle disposizioni chiave del Take It Down Act a partire dal 19 maggio. Da quella data, siti web e servizi online saranno obbligati a rimuovere entro 48 ore qualsiasi contenuto deepfake non consensuale, previa segnalazione della vittima, pena multe e indagini da parte dell’autorità statunitense.

La legge, approvata dal Congresso lo scorso anno, ha già introdotto la possibilità per le forze dell’ordine di perseguire penalmente chi crea e pubblica tali contenuti. Tuttavia, le piattaforme che li ospitano hanno avuto un anno di tempo per implementare sistemi di segnalazione e rimozione. Ora, con l’entrata in vigore delle nuove regole, le aziende che non rispetteranno il termine di 48 ore rischiano sanzioni fino a 53.088 dollari per violazione e possibili indagini da parte della FTC.

Questa settimana, il presidente della FTC, Andrew Ferguson, ha inviato lettere a numerose aziende del settore privato, illustrando le modalità con cui l’autorità intende monitorare il rispetto delle norme. Tra le richieste, spicca l’obbligo per le piattaforme di rendere semplice e accessibile la procedura di segnalazione per gli utenti, anche per chi non dispone di un account.

«Siamo pronti a monitorare il rispetto delle regole, indagare sulle violazioni e applicare il Take It Down Act», ha dichiarato Ferguson in una nota. «Proteggere le persone vulnerabili, soprattutto i minori, da questo tipo di abusi è una priorità assoluta per questa agenzia e per l’amministrazione».

Cosa prevede la legge e come verranno applicate le sanzioni

Secondo le nuove disposizioni, saranno considerate violazioni sia le immagini intime non consensuali create con foto reali di altre persone sia i deepfake generati o modificati con l’intelligenza artificiale. Le aziende dovranno inoltre pubblicare sul proprio sito le procedure di segnalazione e rimozione in linguaggio chiaro e fornire agli utenti una notifica visibile e immediata su come richiedere la cancellazione dei contenuti.

La FTC ha specificato che la legge si applica a siti web, app, social media, piattaforme di condivisione di immagini e video e servizi di gaming. Tra le aziende destinatarie delle lettere di Ferguson figurano giganti del tech come Amazon, Alphabet, Apple, Meta, Microsoft, TikTok e X.

Il caso Grok e le sfide per le piattaforme

All’inizio di quest’anno, il servizio di intelligenza artificiale Grok, accessibile agli utenti di X (ex Twitter), è stato utilizzato per diffondere deepfake sessuali non consensuali di persone reali. Elon Musk, proprietario di X, inizialmente ha minimizzato le critiche, ma in seguito è stato coinvolto in indagini penali e civili e ha ricevuto richieste da alcuni leader mondiali di bandire l’app.

Per prevenire la riapparizione di contenuti intimi già rimossi, la FTC raccomanda alle piattaforme di adottare tecnologie di hashing e di collaborare con organizzazioni come il National Center for Missing and Exploited Children e StopNCII.org per monitorare la diffusione di tali materiali su internet.

Reazioni e prospettive

«Alcuni aspetti dell’approccio della FTC, come l’obbligo di rendere semplici le procedure di segnalazione per le vittime, sono in linea con le migliori pratiche definite dalla società civile».

Queste le parole di Becca Branum, direttrice del Free Expression Project al Center for Democracy and Technology, intervistata da CyberScoop. Tuttavia, l’esperta ha sottolineato come la piena efficacia della normativa dipenderà dalla capacità delle piattaforme di applicare realmente le nuove regole e di proteggere gli utenti da abusi futuri.