Unia Europejska bada działania Meta wobec ochrony dzieci

Komisja Europejska przeprowadziła wstępne dochodzenie, które wykazało, że Meta, właściciel platform Instagram i Facebook, nie podejmuje wystarczających działań w celu zapobiegania dostępowi nieletnich do tych serwisów. Według unijnych regulatorów, firma nie spełnia wymogów DSA (Digital Services Act), który nakłada obowiązek ochrony najmłodszych użytkowników przed szkodliwymi treściami i nieodpowiednimi interakcjami.

Groźba kar finansowych

W przypadku potwierdzenia niedopełnienia obowiązków, Komisja Europejska może nałożyć na Meta kary finansowe sięgające nawet 6% globalnych przychodów firmy. To kolejny krok w ramach zaostrzającej się polityki UE wobec cyfrowych gigantów, którzy nie dbają o bezpieczeństwo najmłodszych użytkowników.

Obowiązki platform cyfrowych według DSA

Regulacje Digital Services Act nakładają na platformy internetowe szereg obowiązków, w tym:

  • Weryfikację wieku użytkowników w celu ograniczenia dostępu nieletnich do nieodpowiednich treści;
  • Stosowanie systemów wykrywania i usuwania szkodliwych materiałów, takich jak mowa nienawiści czy treści związane z samookaleczeniem;
  • Zapewnienie przejrzystości algorytmów rekomendacyjnych, aby użytkownicy mogli lepiej kontrolować swoje doświadczenia online;
  • Współpracę z organami regulacyjnymi w celu monitorowania i raportowania zagrożeń.

Reakcja Meta na zarzuty

Meta zapowiedziała, że podejmuje kroki w celu wzmocnienia ochrony nieletnich na swoich platformach. Firma wprowadziła już szereg zmian, takich jak:

  • Ograniczenie dostępu do niektórych funkcji dla użytkowników poniżej 16. roku życia;
  • Wdrożenie systemów wykrywania i blokowania nieodpowiednich treści;
  • Współpracę z ekspertami ds. bezpieczeństwa dzieci w celu poprawy mechanizmów ochronnych.

„Bezpieczeństwo najmłodszych użytkowników jest dla nas priorytetem. Podejmujemy działania, aby dostosować się do wymogów DSA i zapewnić jak najwyższy poziom ochrony.” – oświadczenie przedstawiciela Meta.

Kontekst międzynarodowy

To nie pierwsze wyzwanie, przed którym staje Meta w kontekście ochrony dzieci. W Stanach Zjednoczonych firma została niedawno pozwana przez 41 stanów za rzekome narażanie zdrowia psychicznego nieletnich użytkowników. Również w Wielkiej Brytanii regulatorzy prowadzą dochodzenia w sprawie wpływu mediów społecznościowych na najmłodszych.

Co dalej?

Komisja Europejska oczekuje od Meta szczegółowych wyjaśnień i planów naprawczych w ciągu najbliższych tygodni. Jeśli firma nie podejmie wystarczających działań, może zostać ukarana grzywnami lub innymi środkami egzekwowania prawa. To kolejny sygnał, że regulacje cyfrowe w UE stają się coraz bardziej rygorystyczne, a firmy technologiczne muszą dostosować się do nowych standardów ochrony użytkowników.

Źródło: Engadget