유럽연합(EU)이 메타(구 페이스북)에 대해 아동 보호 조치가 미흡하다는 preliminary investigation(예비 조사) 결과를 발표했다. 특히 인스타그램과 페이스북에서 미성년자를 효과적으로 차단하지 못하고 있으며, 이는 EU의 규제 강화로 이어질 가능성이 크다.

EU는 메타가 아동 안전 강화 조치를 충분히 이행하지 않고 있다고 지적했다. 조사 결과에 따르면, 메타의 플랫폼에서 미성년자가 접근할 수 있는 위험 요소가 여전히 존재하며, 이는 EU의 디지털 서비스법(DSA) 위반에 해당할 수 있다.

메타는 지난해 아동 보호 강화 계획을 발표했지만, EU는 이 조치들이 실효성을 거두지 못하고 있다고 평가했다. 특히 인스타그램의 경우, 연령 인증 시스템이 허술하다는 지적이 이어지고 있다.

EU의 규제 강화 움직임

EU는 메타에 대해 공식적인 경고를 발부할 예정이며, 조치가 미비할 경우 과징금 부과 등 강력한 제재를 가할 수 있다. EU 집행위원회는 “아동 보호는 최우선 과제”라며, 메타에 추가 조치를 요구할 계획이다.

이번 조사는 EU가 메타를 대상으로 진행 중인 광범위한 조사 중 일부로, 지난해부터 시작된 디지털 서비스법(DSA) 준수 여부 점검의 일환이다. EU는 메타 외에도 빅테크 기업들에 대해 규제 강화에 나서고 있다.

메타의 대응과 전망

메타는 EU의 지적에 대해 “아동 안전을 최우선으로 고려하고 있으며, 관련 조치를 지속적으로 개선할 것”이라고 밝혔다. 그러나 EU의 규제 강화가 가시화되면서 메타의 사업 운영에 큰 영향을 미칠 가능성이 있다.

전문가들은 EU의 조치가 글로벌 규제 트렌드로 확산될 수 있다고 분석했다. 특히 디지털 플랫폼의 아동 보호 책임을 강화하는 움직임이 전 세계적으로 확산되고 있어, 메타를 비롯한 빅테크 기업들의 대응이 주목된다.

“EU의 규제는 글로벌 표준으로 자리잡을 가능성이 높다. 메타는 물론 다른 플랫폼들도 아동 보호 조치를 강화해야 할 것이다.” — 디지털 정책 전문가
출처: Engadget