欧州連合(EU)は2024年、Meta Platforms(旧Facebook)が運営するFacebookとInstagramにおいて、13歳未満の子どもが利用することを防止する措置が不十分だと指摘した。EUの執行機関である欧州委員会は、Metaが自社の規約で定める13歳未満のアカウント作成を防ぐ実効性のある対策を講じていないと発表した。
さらに、Metaはアカウントが作成された後も、13歳未満の子どもを特定して削除する仕組みが不十分であるとの見解を示した。欧州委員会のヘンナ・ヴィルックネン(Henna Virkkunen)副委員長は声明で、「InstagramとFacebookは、自社のサービスが13歳未満の子どもを対象としていないと規約で明記しているにもかかわらず、実質的な対策がほとんど講じられていない」と述べた。
欧州委員会はまた、Metaが13歳未満の子どもに「年齢に不適切な体験」を与えるリスクを十分に評価していないと指摘。こうした問題は、単にアクセスを防ぐだけでなく、子どもたちの安全を確保するための包括的な取り組みが求められている。
Meta側はこれに対し、13歳未満のアカウントを検出・削除する仕組みは既に導入済みだと反論。「年齢の特定は業界全体の課題であり、業界全体での解決が必要だ」と述べ、今後も欧州委員会と建設的に協議を続けるとした。また、来週中に追加の対策を発表する予定だと明らかにした。
今回の問題は、EUの「デジタルサービス法(DSA)」に基づく調査の一環。DSAは、EU域内で事業を展開するテック企業に対し、オンラインプラットフォームの浄化やユーザー保護を義務付ける包括的な規制だ。Metaは今後、欧州委員会からの暫定的な見解に対する反論の機会を得た後、最終的な判断が下される。違反が認められた場合、最大で年間世界売上高の6%に相当する重い罰金が科される可能性がある。