Taylor Swift ha recentemente depositato una serie di domande di marchio per proteggere la propria identità dall’uso improprio dell’intelligenza artificiale. Queste nuove richieste, secondo uno studio legale specializzato, mirano a tutelare non solo il nome dell’artista, ma anche il timbro e le caratteristiche distintive della sua voce attraverso i cosiddetti marchi sonori.

In due richieste depositate il 24 aprile tramite la società di Swift, l’artista ha richiesto la registrazione di due registrazioni audio: nella prima, dice «Hey, it’s Taylor», mentre nella seconda recita «Hey, it’s Taylor Swift». Sebbene i contenuti non siano innovativi, il loro scopo non è quello di distinguersi per originalità, ma di creare un precedente giuridico.

«Il concetto di proteggere un suono come marchio non è nuovo, ma rimane ancora poco diffuso», ha dichiarato Josh Gerben, avvocato dello studio Gerben IP, che ha segnalato le domande sul sito dello studio legale. «Fino a oggi, gli artisti hanno fatto affidamento sul diritto d’autore per proteggere le proprie registrazioni. Tuttavia, le tecnologie di IA consentono oggi di generare contenuti completamente nuovi che imitano la voce di un artista senza copiare una registrazione esistente, creando un vuoto che i marchi potrebbero colmare».

Secondo Gerben, se un’imitazione generata dall’IA della voce di Swift dovesse essere oggetto di una causa legale, l’artista potrebbe sostenere che l’uso di registrazioni simili ai suoi marchi vocali viola i diritti di proprietà intellettuale. L’obiettivo, insomma, è proteggere il suono della voce di Taylor Swift allo stesso modo in cui NBC tutela le sue note di apertura, un approccio che Matthew McConaughey ha adottato per la propria voce.

Questa strategia riflette un nuovo modo di affrontare le sfide dell’era dell’IA, anche se la sua efficacia in tribunale rimane ancora da verificare.

L’IA come minaccia per le celebrità: deepfake e imitazioni non autorizzate

Le celebrità sono tra i soggetti più vulnerabili all’uso improprio dell’IA. Mentre artisti e attori già combattono una battaglia senza fine contro le imitazioni non autorizzate, i nuovi modelli di intelligenza artificiale hanno reso la produzione di queste falsificazioni semplice e scalabile.

Le donne, in particolare, sono spesso vittime di deepfake che utilizzano il loro volto e il loro corpo in contesti non consensuali, come immagini pornografiche non autorizzate. Anche Taylor Swift è stata vittima di queste campagne: all’inizio del 2024, immagini deepfake che la ritraevano sono circolate ampiamente su piattaforme come 4chan.

Di fronte a questa minaccia crescente, le celebrità stanno cercando di stabilire nuove regole per l’era dell’IA, o almeno di capire come difendersi. L’iniziativa di Swift è solo l’ultimo esempio di questa tendenza.

Altri casi di resistenza all’IA da parte delle celebrità

Nel 2024, OpenAI ha sospeso il rilascio di una voce per ChatGPT che ricordava quella di Scarlett Johansson, dopo che l’attrice aveva criticato pubblicamente l’azienda per aver apparentemente imitato la sua voce. (OpenAI ha poi dichiarato di aver utilizzato un’altra attrice per la funzione.)

In un altro caso, la famiglia di Martin Luther King Jr. ha fatto pressioni su OpenAI affinché rimuovesse le imitazioni del leader dei diritti civili dalla sua piattaforma di generazione video, Sora, prima che questa venisse chiusa.

Anche YouTube, sotto la pressione delle agenzie di talenti, ha annunciato di voler estendere i propri servizi di rilevamento dei deepfake a Hollywood. Ora, le celebrità potranno richiedere la rimozione di video che utilizzano generazioni di IA per rappresentarle.