動画共有プラットフォーム大手のYouTubeは、AIリッケージ検出ツールの利用対象をハリウッドのタレントエージェンシーと管理会社、およびその顧客であるセレブに拡大したと発表した。

このツールはYouTubeの既存のコンテンツIDシステムに類似しており、AIによって生成された動画内に特定の個人の顔や特徴が使用されているかどうかを検出する。例えば、あるセレブの顔がディープフェイク動画で無断使用されていた場合、そのセレブはツールを通じて該当コンテンツを確認し、YouTubeのプライバシー指針に違反していると判断すれば削除を申請できる仕組みだ。

利用開始にあたっては、参加者が本人確認を行う必要がある。その際に提供されるデータは、Googleの生成AIモデルの学習には使用されず、本人確認の目的のみに利用される。また、ユーザーは随時ツールの利用を停止でき、その際には提供済みのデータは完全に削除される。

YouTubeは12日に公開したブログ記事で、CAA、UTA、WME、Untitled Managementなど主要なタレントエージェンシーの協力を得て、リッケージ検出機能の改良を進めてきたと述べた。また、YouTubeチャンネルの有無にかかわらず、セレブやエンターテイナーがこのツールを利用できるようになったことを歓迎するコメントを発表した。

このツールの拡大は、2024年12月にCAAの顧客を対象とした初期ローンチから始まり、その後2025年10月には5,000人のクリエイターに、2026年3月には政府関係者、政治家、ジャーナリストに対象を拡大していた。

さらにYouTubeは、このツールの導入と並行して、クリエイターやアーティストがAIリッケージの管理と許諾を通じて新たな収益源を見出す機会を模索している。

同社はまた、人間の創造性を決して置き換えることなく、技術を活用するための指針となる米国の連邦権利法「NO FAKES Act」を引き続き推進すると表明。国際的な普及に向けた青写真として機能することを目指すとしている。

出典: The Wrap