欧州連合(EU)当局は、米メタ社(旧フェイスブック)が未成年者の保護に不十分な対策しか講じていないとの暫定調査結果を発表した。同社が運営するインスタグラムとフェイスブックにおいて、未成年者の利用を適切に制限できていないと指摘している。
この調査は、EUのデジタルサービス法(DSA)に基づくもので、同法はプラットフォーム事業者に対し、ユーザー保護やコンテンツモデレーションの強化を義務付けている。メタ社に対しては、特に未成年者のプライバシー保護と安全なオンライン環境の確保が求められている。
メタ社の対応と今後の展開
メタ社はこれまで、未成年者向けの機能強化や保護機能の導入を発表してきたが、EU当局はその効果に疑問を呈している。同社は声明で「子どもたちの安全を最優先に取り組んでいる」と主張しているものの、具体的な改善策については明確な回答を示していない。
今後、EU当局はメタ社に対し、さらなる調査や改善措置の実施を求める見通しだ。違反が確認された場合、同社には最大で年間全世界売上高の6%に相当する制裁金が科される可能性がある。
専門家の見解
「ソーシャルメディアプラットフォームにおける未成年者保護は、単なる技術的な問題にとどまらない。企業の倫理的責任が問われている」
(デジタル人権団体代表、マリア・シュミット氏)
メタ社の取り組みと課題
- 年齢確認システムの強化:現状では、ユーザーが自身の年齢を偽ることが容易であり、実効性に乏しい。
- 広告ターゲティングの制限:未成年者に対して不適切な広告が表示されるリスクが指摘されている。
- ダークパターンの排除:未成年者がプライバシー設定を変更しにくい設計が問題視されている。
EU当局は、メタ社に対し、これらの課題に対する具体的な改善策を提示するよう求めている。また、他の大手プラットフォームに対しても同様の調査が行われる可能性がある。
出典:
Engadget