ソーシャルメディアの歴史とともに存在してきたフェイクアカウント。しかし最近、米国の保守系政治運動「MAGA」を支持する「美しい女性」インフルエンサー「エミリー・ハート」が、実在の22歳インド人医学生によって運営されていたことが判明した。単なるカターフィッシングやソックパペット(なりすましアカウント)ではなく、数百万ドル規模の収益を生み出す本格的なインフルエンサーだった。

運営者は、活動期間中にOnlyFansの競合サイトでソフトコア動画を投稿し、月数千ドルの収入を得ていたと告白。AIツール「Google Gemini」を活用し、アメリカの政治文化に精通した学生だったという。この事件は、AI技術がいかに簡単に説得力のあるコンテンツを作成し、ソーシャルメディアのエンゲージメントシステムを操作できるかを示した。

AIがもたらす「偽インフルエンサー」の拡散

この事件の本質的な問題は、単一のAIインフルエンサーにとどまらない。AIを活用した偽のオンラインパーソナリティの作成が、いかに簡単で大規模な詐欺を可能にしているかだ。Wired誌の調査では、同様のプロ・トランプ系偽インフルエンサー「ジェシカ・フォスター」も確認されている。Instagramのエクスプロアページを確認すれば、AI生成コンテンツが頻繁に見つかるが、そのほとんどが開示されていない。

エミリー・ハートのケースが示すように、この「偽インフルエンサー」のテンプレートは、安価・迅速・収益性が高いという特徴を持ち、簡単に模倣可能だ。主要ソーシャルメディアプラットフォームは、AI生成コンテンツに関するポリシーを設けている。政治、健康、金融、時事問題などの敏感な分野では、AIによって作成された画像や動画は開示が義務付けられている。開示がなければ、アカウント凍結や収益化停止、アカウント削除などの措置が取られる可能性がある。

実効性のないポリシーと検知の難しさ

しかし、これらのポリシーは紙の上だけの存在に過ぎない。実際の運用では、AI生成コンテンツの検知が困難なため、実効性が乏しいのが現状だ。最新の画像生成AIは、初期の「スパゲッティを食べるウィル・スミス」動画のような明らかな違和感(余分な指や消える背景キャラクター)をほとんど排除しており、人間の目では見分けがつかないレベルにまで進化している。

さらに、AI生成画像の多くは、その出自を示す透かし(ウォーターマーク)が埋め込まれていない。このため、自動検知システムであっても、画像がAI生成か実写かを判別するのが難しくなっている。

「コンテンツ資格情報」の普及が進まず

この問題を解決するために考案されたのが「コンテンツ資格情報(Content Credentials)」だ。これは、画像が作成・編集された過程を追跡し、その情報を画像のメタデータに保存する技術だ。これにより、表示サイト側で画像の出自をより正確に判断できるようになる。

しかし、この技術の普及は遅れている。多くのプラットフォームが対応を表明しているものの、実装はまだ限定的だ。また、メタデータが削除されたり、改ざんされたりするリスクもある。AI生成コンテンツの透明性を確保するためには、業界全体での取り組み強化が不可欠だ。

誰が責任を負うのか?

エミリー・ハート事件は、AI技術がもたらす倫理的・社会的課題を浮き彫りにした。AI生成コンテンツの拡散は、もはや一部の専門家だけの問題ではなく、一般ユーザーにとっても深刻な脅威となりつつある。偽情報の拡散を防ぐためには、プラットフォーム、クリエイター、ユーザーの三者が協力し、透明性と責任を持った取り組みを進める必要がある

今後、AI技術がさらに進化すれば、偽情報の検知はますます困難になるだろう。その一方で、AIを活用した偽情報対策も進化し続けている。ユーザー一人ひとりがリテラシーを高め、情報の信頼性を慎重に判断することが、何よりも重要だ。