Taylor Swift walczy z fałszerstwami AI, rejestrując dźwiękowe znaki towarowe

Taylor Swift niedawno złożyła wnioski o rejestrację dwóch dźwiękowych znaków towarowych, mających na celu ochronę jej głosu przed nieautoryzowanymi imitacjami generowanymi przez sztuczną inteligencję. Choć artystka posiada już liczne znaki towarowe, te nowe zgłoszenia mają unikalny charakter – mają chronić brzmienie i charakterystyczne cechy jej głosu.

Wnioski zostały złożone 24 kwietnia przez jej firmę. W jednym nagraniu Swift mówi: „Hej, to ja, Taylor”, a w drugim: „Hej, to ja, Taylor Swift”. Choć same nagrania nie są niczym nowym, ich cel jest zupełnie inny. Jak wyjaśnia Josh Gerben, prawnik z firmy Gerben IP, która zauważyła te zgłoszenia, ochrona dźwięku jako znaku towarowego nie jest nowym pomysłem, ale wciąż rzadko stosowanym.

„Tradycyjnie artyści polegali na prawie autorskim, aby chronić swoje nagrania. Jednak obecne technologie AI pozwalają na tworzenie zupełnie nowej treści, która naśladuje głos artysty bez kopiowania istniejących nagrań. To stwarza lukę, którą znaki towarowe mogą pomóc wypełnić.”

Josh Gerben, Gerben IP

Gerben dodaje, że w przypadku sporu sądowego Swift mogłaby argumentować, iż użycie AI-generowanej imitacji jej głosu narusza zarejestrowane znaki towarowe. Strategia ta przypomina podejście NBC, które chroni swoje charakterystyczne dźwięki. Choć metoda ta jest innowacyjna, jej skuteczność w sądzie pozostaje niepewna.

Dlaczego celebryci są szczególnie narażeni na oszustwa AI?

Osoby publiczne, zwłaszcza gwiazdy i aktorzy, są szczególnie podatne na fałszerstwa AI. Dotychczas musieli oni zmagać się z nieautoryzowanymi wykorzystaniami ich wizerunku, ale nowe modele AI znacznie ułatwiły tworzenie takich imitacji – zarówno pod względem skali, jak i dostępności. Szczególnie narażone są kobiety, które często padają ofiarami deepfake’ów wykorzystywanych w nielegalnych treściach pornograficznych.

Swift sama doświadczyła skutków takich działań. Na początku 2024 roku fałszywe, wygenerowane przez AI obrazy artystki rozprzestrzeniły się na platformach takich jak 4chan. To skłoniło ją do podjęcia działań mających na celu ochronę przed tego typu zagrożeniami.

Inne przykłady walki z AI

Próby ustalenia zasad korzystania z wizerunku w erze AI nie ograniczają się tylko do Swift. W 2024 roku OpenAI wstrzymało wdrażanie głosu ChatGPT, który przypominał głos Scarlett Johansson, po tym jak aktorka publicznie skrytykowała firmę za rzekome naśladowanie jej brzmienia. (OpenAI twierdzi, że użyto innego aktora do stworzenia tej funkcji.)

Rodzina Martina Luthera Kinga Jr. wywarła presję na OpenAI, aby usunęła podobizny działacza z platformy generującej filmy Sora, zanim ta została zamknięta. Z kolei YouTube, pod presją agencji talentów, ogłosił rozszerzenie usługi wykrywania deepfake’ów o Hollywood, dając celebrytom możliwość zgłaszania i usuwania fałszywych treści z ich udziałem.

Czy znaki dźwiękowe to przyszłość ochrony wizerunku?

Choć strategia Swift jest innowacyjna, jej skuteczność w dłuższej perspektywie pozostaje niepewna. Prawo dotyczące ochrony wizerunku w erze AI wciąż się kształtuje, a sądy będą musiały rozstrzygnąć, jakie metody ochrony są najskuteczniejsze. Jedno jest pewne: celebryci i ich prawnicy będą nadal szukać nowych sposobów na ochronę przed rosnącym zagrożeniem ze strony sztucznej inteligencji.

Źródło: Fast Company