Swift indgiver varemærker for at beskytte sin stemme mod AI

Taylor Swift har for nylig indgivet flere varemærkeansøgninger med det formål at forhindre AI-genererede imitationer af sin stemme. Ifølge en førende intellektuel ejendomsret-firma tjener ansøgningerne et nyt formål: at beskytte lydstyrken og karakteren af hendes stemme gennem såkaldte "lydmærker".

I to nylige ansøgninger, offentliggjort 24. april af Swifts selskab, har hun forsøgt at varemærke to optagelser. Den ene indeholder stemmen "Hey, det er Taylor", mens den anden lyder "Hey, det er Taylor Swift". Selvom optagelserne ikke er banebrydende i sig selv, er formålet formentlig at etablere juridisk beskyttelse.

Beskyttelse af stemme som varemærke er ikke nyt, men det er stadig relativt sjældent, forklarer Josh Gerben, advokat hos Gerben IP, som opdagede ansøgningerne. "Historisk set har sangere og kunstnere været afhængige af ophavsret til at beskytte deres optagelser. Men med AI-teknologier kan brugere nu generere helt nye indhold, der efterligner en kunstners stemme uden at kopiere en eksisterende optagelse. Det skaber et hul, som varemærker kan hjælpe med at udfylde," siger Gerben.

Hvis en AI-genereret imitation af Swifts stemme skulle føre til retssag, kunne hun argumentere for, at brugen ligner hendes registrerede stemmemærker og dermed krænker hendes intellektuelle ejendomsrettigheder. Ifølge Gerben er målet at beskytte lyden af Swifts stemme på samme måde, som NBC beskytter sine ikoniske klokkespil.

En ny strategi i AI-alderen

Denne tilgang, som også er blevet anvendt af skuespilleren Matthew McConaughey, afspejler en ny strategi for at håndtere udfordringerne i AI-alderen. Indtil videre er metoden dog uprøvet i retten.

Kendte er blandt de mest sårbare over for AI-genererede imitationer og uautoriseret brug af deres identitet. Mens etablerede kunstnere og skuespillere allerede kæmper en konstant kamp mod falske profiler og deepfakes, gør den nye generation af AI-modeller det nemmere end nogensinde at producere og sprede sådanne imitationer.

Kvindelige kendte er særligt udsatte for deepfake-operationer, der anvender deres ansigter og kroppe i ikke-aftalte pornografiske sammenhænge. Swift selv har været udsat for sådanne angreb, senest i begyndelsen af 2024, hvor AI-genererede billeder af hende spredtes på platforme som 4chan.

Kendte reagerer på AI-truslen

Swift er blot én blandt flere kendte, der forsøger at etablere nye regler for AI-brug. I 2024 standsede OpenAI udrulningen af en ChatGPT-stemme, der lignede Scarlett Johanssons stemme og hendes rolle som chatbot i filmen Her, efter at Johansson offentligt kritiserede selskabet for at efterligne hendes stemme. (OpenAI har senere oplyst, at de brugte en anden skuespiller til funktionen.)

Familien til Martin Luther King Jr. pressede ligeledes OpenAI til at fjerne lighedstræk med den civile rettighedsleder fra sin videogenereringsplatform, Sora, inden den blev lukket ned. Desuden annoncerede YouTube for nylig, at det vil udvide sin deepfake-detektionstjeneste til Hollywood, så kendte nu kan anmode om fjernelse af AI-genererede videoer.

Fremtidens udfordringer

Med den hastige udvikling af AI-teknologier står samfundet over for nye juridiske og etiske udfordringer. Kendte og andre berømtheder forsøger at etablere juridiske rammer for at beskytte deres identitet, men mange spørgsmål forbliver uafklarede. Hvordan defineres en stemmes "karakter" juridisk? Hvor langt rækker retten til at beskytte en persons stemme eller udseende?

Indtil videre er Swifts strategi et eksempel på, hvordan kendte forsøger at tage kontrollen tilbage i en tid, hvor AI kan genskabe deres stemme og udseende næsten perfekt. Men om det vil være nok til at stoppe misbruget, er endnu uvist.