EU, 메타의 아동 보호 실패로 DSA 위반 판정

유럽연합(EU)은 메타가 페이스북과 인스타그램에서 13세 미만 아동의 접근을 효과적으로 차단하지 못하고 있다고 밝혔다. 유럽집행위원회는 2년간의 조사 끝에 메타가 디지털 서비스법(DSA)을 위반했다고 예비 판정을 내렸다.

메타는 아동 보호 조치가 부족하다는 평가를 받았으며, 특히 가입 시 거짓 생년월일을 입력하면 13세 미만 아동도 서비스를 이용할 수 있는 문제가 지적됐다. EU는 이러한 규제 위반에 대해 최대 12조원(120억 달러)에 달하는 과징금을 부과할 수 있다고 밝혔다.

2년간의 조사 결과

유럽집행위원회는 2022년부터 메타의 아동 보호 정책과 플랫폼 운영을 면밀히 조사해왔다. 조사 결과, 메타가 다음과 같은 문제점을 보였다고 밝혔다.

  • 연령 인증 시스템 미비: 가입 시 생년월일을 입력하는 방식만으로 13세 미만 아동의 접근을 차단할 수 없음
  • 콘텐츠 노출 관리 실패: 아동에게 부적절한 콘텐츠가 노출될 위험이 상존
  • 사용자 신원 확인 부족: 이미 가입한 13세 미만 아동의 계정을 적절히 식별하고 제거하지 못함

메타의 대응과 향후 과제

메타는 EU의 예비 판정에 대해 공식 입장을 밝히지 않았지만, 규제 compliance를 위해 추가 조치를 취할 것으로 예상된다. EU는 메타에게 1개월 이내에 조치 계획을 제출하라고 요구했으며, 미이행 시 과징금이 부과될 수 있다.

이번 판정은 EU가 빅테크 기업에 대한 규제 강화를 지속하고 있음을 보여주는 사례다. 지난해 EU는 테크 기업들이 DSA를 준수하지 않을 경우 최대 전 세계 매출의 6%에 해당하는 과징금을 부과할 수 있는 권한을 부여했다.

아동 보호 강화가 시급

메타뿐만 아니라 다른 소셜 미디어 플랫폼들도 아동 보호 강화가 절실한 상황이다. EU는 지난해 온라인 아동 안전법(Age Appropriate Design Code)을 도입해 플랫폼 사업자들에게 아동 친화적인 디자인과 보호 조치를 의무화했다. 이 법은 영국에서도 시행 중이며, 전 세계적으로 아동 보호 규제가 강화되고 있다.

"아동의 안전을 최우선으로 고려하지 않는 플랫폼은 더 이상 용납될 수 없습니다. EU는 빅테크 기업들이 책임을 다할 수 있도록 강력한 규제를 시행할 것입니다."
– 유럽집행위원회 디지털 시대 책임 담당관

메타의 향후 계획은?

메타는 EU의 규제 compliance를 위해 다음과 같은 조치를 고려할 것으로 보인다.

  • 강화된 연령 인증 시스템 도입: 신분증 제출이나 AI 기반 얼굴 인식 등 엄격한 인증 방식 도입
  • 아동 전용 모드 개발: 13세 미만 아동을 위한 제한적 기능의 별도 플랫폼 구축
  • 콘텐츠 필터링 강화: 아동에게 부적절한 콘텐츠 자동 차단 시스템 고도화

EU의 이번 결정은 글로벌 빅테크 기업들에게도 시사하는 바가 크다. 전 세계적으로 아동 보호 규제가 강화되면서, 플랫폼 사업자들은 보다 엄격한 아동 보호 정책을 마련해야 할 것이다.

출처: The Verge