Celebridades como Taylor Swift estão definindo os limites do uso de inteligência artificial (IA) ao registrar marcas que protegem suas vozes e imagens. Recentemente, Swift protocolou pedidos de registro de marcas sonoras, uma estratégia inovadora para evitar imitações geradas por IA.

Em 24 de abril, a empresa de Swift anunciou duas novas solicitações de marcas registradas. Em uma delas, a cantora diz: “Hey, it’s Taylor”, e na outra: “Hey, it’s Taylor Swift”. Embora as gravações não sejam inéditas, o objetivo não é a originalidade, mas sim proteger o timbre e a identidade vocal da artista.

Proteção além do copyright

Historicamente, artistas dependiam do copyright para proteger suas gravações. No entanto, a IA permite a criação de conteúdos que imitam vozes sem copiar gravações existentes, criando uma brecha legal. Segundo Josh Gerben, advogado especializado em propriedade intelectual, as marcas sonoras podem preencher essa lacuna.

“O conceito de proteger sons como marcas não é novo, mas ainda é pouco comum. Se uma imitação de voz de Taylor Swift gerada por IA for alvo de processo, ela poderá argumentar que o uso se assemelha às marcas registradas de sua voz, configurando violação de direitos.” — Josh Gerben, Gerben IP

A estratégia lembra a proteção que a NBC concede ao seu famoso jingle. Embora ainda não tenha sido testada em tribunais, a abordagem reflete uma nova frente na batalha contra o uso indevido de identidades por IA.

Celebridades no centro da luta contra deepfakes

Atores e músicos são os principais alvos de imitações não autorizadas e deepfakes. A facilidade com que a IA gera conteúdos falsos tornou essa prática ainda mais disseminada e preocupante. Mulheres, em particular, são frequentemente vítimas de deepfakes com fins pornográficos não consensuais.

Swift já foi alvo de campanhas desse tipo. Em janeiro de 2024, imagens falsas geradas por IA da cantora circularam em fóruns como o 4chan. A situação levou a indústria a buscar formas de regulamentar o uso de IA, com celebridades tentando estabelecer barreiras de proteção.

Casos recentes reforçam a tendência

Em 2024, a OpenAI interrompeu o lançamento de uma voz do ChatGPT que lembrava a de Scarlett Johansson, após a atriz criticar a empresa por supostamente imitar sua voz. (A OpenAI afirmou ter usado outra atriz para a função.)

Outro exemplo envolveu a família de Martin Luther King Jr., que pressionou a OpenAI a remover representações do líder dos direitos civis de sua plataforma de geração de vídeos, Sora, antes de seu lançamento.

Já o YouTube anunciou recentemente a expansão de seu serviço de detecção de deepfakes para Hollywood, permitindo que celebridades solicitem a remoção de vídeos que utilizem IA para recriar suas imagens ou vozes.

O futuro da regulamentação da IA

A corrida das celebridades para proteger suas identidades reflete um cenário em que a legislação ainda não acompanhou os avanços tecnológicos. Enquanto governos e empresas discutem regulamentações, artistas e atores buscam soluções próprias, como marcas sonoras e ações judiciais, para garantir seus direitos diante da revolução da IA.