Taylor Swift hat kürzlich mehrere Markenanmeldungen eingereicht, um sich vor KI-generierten Stimmenimitaten zu schützen. Während die Sängerin bereits über ein breites Portfolio an Markenrechten verfügt, könnten diese neuen Anträge einen besonderen Zweck erfüllen: den Schutz der Klangfarbe und des Charakters ihrer Stimme durch sogenannte „Sound Marks“.
In zwei kürzlich veröffentlichten Anträgen, die am 24. April von Swifts Firma eingereicht wurden, beantragt sie den Schutz zweier Aufnahmen. In der ersten sagt sie: „Hey, it’s Taylor“, in der zweiten: „Hey, it’s Taylor Swift“. Die Aufnahmen selbst sind nicht neu, doch genau darin könnte der Schlüssel liegen. Josh Gerben, Anwalt der Kanzlei Gerben IP, die die Anträge entdeckt hat, erklärt: „Der Schutz von Klängen als Marke ist nicht neu, aber nach wie vor selten.“
Bisher verließen sich Sänger:innen vor allem auf das Urheberrecht, um ihre Aufnahmen zu schützen. Doch KI-Technologien ermöglichen es nun, völlig neue Inhalte zu generieren, die Stimmen imitieren – ohne bestehende Aufnahmen zu kopieren. Hier könnte das Markenrecht eine Lücke schließen. Gerben führt aus: „Theoretisch könnte Swift bei einer Klage argumentieren, dass KI-generierte Stimmen, die ihren registrierten Klangmarken ähneln, ihre geistigen Eigentumsrechte verletzen.“
Ihr Ziel: den Klang ihrer Stimme ähnlich zu schützen wie NBC seine berühmten Glockenspiele. Diese Strategie, die auch Matthew McConaughey verfolgt, ist ein neuartiger Ansatz für das KI-Zeitalter – allerdings ist ihre rechtliche Durchsetzbarkeit noch ungetestet.
Prominente sind besonders anfällig für KI-generierte Fälschungen und unautorisierte Nutzung ihrer Stimmen oder Bilder. Während Stars bereits seit Jahren gegen Fälschungen kämpfen, machen moderne KI-Modelle die Erstellung solcher Inhalte erschreckend einfach und skalierbar. Besonders Frauen werden häufig Opfer von Deepfakes, etwa in nicht einvernehmlichen pornografischen Darstellungen. Swift selbst war bereits Ziel solcher Kampagnen: Anfang 2024 verbreiteten sich KI-generierte, gefälschte Bilder von ihr massenhaft auf Plattformen wie 4chan.
Als Reaktion darauf versuchen Prominente, Schutzmechanismen für das KI-Zeitalter zu etablieren – oder zumindest herauszufinden, wie das gehen könnte. Swifts Vorstoß ist nur ein Beispiel von vielen. Im Jahr 2024 setzte OpenAI die Einführung einer ChatGPT-Stimme aus, die der von Scarlett Johansson ähnelte – und zwar nach deren öffentlicher Kritik, das Unternehmen ahme ihre Stimme nach. (OpenAI betonte, man habe einen anderen Sprecher verwendet.)
Ebenso übte die Familie von Martin Luther King Jr. Druck auf OpenAI aus, um Darstellungen des Bürgerrechtlers aus der Video-KI-Plattform Sora zu entfernen, bevor diese eingestellt wurde. Und unter dem Druck von Talentagenturen kündigte YouTube an, seinen Deepfake-Erkennungsdienst auf Hollywood auszuweiten. Prominente können nun beantragen, dass bestimmte KI-generierte Videos entfernt werden.