Unia Europejska bada działania Meta wobec ochrony dzieci
Komisja Europejska przeprowadziła wstępne dochodzenie, które wykazało, że Meta, właściciel platform Instagram i Facebook, nie podejmuje wystarczających działań w celu zapobiegania dostępowi nieletnich do tych serwisów. Według unijnych regulatorów, firma nie spełnia wymogów DSA (Digital Services Act), który nakłada obowiązek ochrony najmłodszych użytkowników przed szkodliwymi treściami i nieodpowiednimi interakcjami.
Groźba kar finansowych
W przypadku potwierdzenia niedopełnienia obowiązków, Komisja Europejska może nałożyć na Meta kary finansowe sięgające nawet 6% globalnych przychodów firmy. To kolejny krok w ramach zaostrzającej się polityki UE wobec cyfrowych gigantów, którzy nie dbają o bezpieczeństwo najmłodszych użytkowników.
Obowiązki platform cyfrowych według DSA
Regulacje Digital Services Act nakładają na platformy internetowe szereg obowiązków, w tym:
- Weryfikację wieku użytkowników w celu ograniczenia dostępu nieletnich do nieodpowiednich treści;
- Stosowanie systemów wykrywania i usuwania szkodliwych materiałów, takich jak mowa nienawiści czy treści związane z samookaleczeniem;
- Zapewnienie przejrzystości algorytmów rekomendacyjnych, aby użytkownicy mogli lepiej kontrolować swoje doświadczenia online;
- Współpracę z organami regulacyjnymi w celu monitorowania i raportowania zagrożeń.
Reakcja Meta na zarzuty
Meta zapowiedziała, że podejmuje kroki w celu wzmocnienia ochrony nieletnich na swoich platformach. Firma wprowadziła już szereg zmian, takich jak:
- Ograniczenie dostępu do niektórych funkcji dla użytkowników poniżej 16. roku życia;
- Wdrożenie systemów wykrywania i blokowania nieodpowiednich treści;
- Współpracę z ekspertami ds. bezpieczeństwa dzieci w celu poprawy mechanizmów ochronnych.
„Bezpieczeństwo najmłodszych użytkowników jest dla nas priorytetem. Podejmujemy działania, aby dostosować się do wymogów DSA i zapewnić jak najwyższy poziom ochrony.” – oświadczenie przedstawiciela Meta.
Kontekst międzynarodowy
To nie pierwsze wyzwanie, przed którym staje Meta w kontekście ochrony dzieci. W Stanach Zjednoczonych firma została niedawno pozwana przez 41 stanów za rzekome narażanie zdrowia psychicznego nieletnich użytkowników. Również w Wielkiej Brytanii regulatorzy prowadzą dochodzenia w sprawie wpływu mediów społecznościowych na najmłodszych.
Co dalej?
Komisja Europejska oczekuje od Meta szczegółowych wyjaśnień i planów naprawczych w ciągu najbliższych tygodni. Jeśli firma nie podejmie wystarczających działań, może zostać ukarana grzywnami lub innymi środkami egzekwowania prawa. To kolejny sygnał, że regulacje cyfrowe w UE stają się coraz bardziej rygorystyczne, a firmy technologiczne muszą dostosować się do nowych standardów ochrony użytkowników.