YouTube har annonceret, at dets AI-værktøj til at opdage deepfakes nu er tilgængeligt for kendte og de Hollywood-agenturer, der repræsenterer dem. Værktøjet fungerer på samme måde som Content ID-systemet og scanner AI-genereret indhold for at identificere, om en persons udseende bliver brugt uden tilladelse.

Hvis der findes en match, fx en deepfake af en celebrities ansigt, kan personen gennemgå indholdet og anmode om fjernelse, hvis det overtræder YouTubes privatlivspolitik. For at benytte værktøjet skal brugerne først verificere deres identitet. De indtastede data bruges udelukkende til verifikation og bliver ikke anvendt til at træne Googles generative AI-modeller. Brugere kan til enhver tid melde sig ud, og YouTube vil derefter slette de indtastede data.

Støtte fra store agenturer
YouTube fremhæver, at værktøjet er blevet udviklet i samarbejde med førende agenturer som CAA, UTA, WME og Untitled Management. Disse har bidraget til at forfine, hvordan likeness-detektion bedst kan tjene talentene.

Udvidet adgang siden lancering
AI-værktøjet blev først lanceret i december 2024 i et pilotprojekt med CAA-klienter. Senere blev det udvidet til 5.000 skabere i oktober 2024 og derefter til politikere, politiske kandidater og journalister i marts 2025. Nu åbnes det altså for hele Hollywood.

Nye indtjeningsmuligheder med AI
Udover at styrke sikkerheden undersøger YouTube også, hvordan skabere og kunstnere kan tjene penge ved at administrere og autorisere brugen af deres AI-genererede udseende. Platformen arbejder desuden på at fremme NO FAKES Act, en lov, der etablerer en føderal ret til eget udseende og kan fungere som en model for international regulering. Målet er at sikre, at teknologien understøtter – og aldrig erstatter – menneskelig kreativitet.

Kilde: The Wrap