Europeiska kommissionen har riktat skarp kritik mot Meta för att företaget inte vidtar tillräckliga åtgärder för att förhindra att barn under 13 år använder Facebook och Instagram. Enligt EU:s hårda digitala regelverk, Digital Services Act (DSA), måste plattformarna aktivt skydda minderåriga användare.

Kommissionen menar att Meta saknar effektiva system för att upptäcka och stänga av konton för barn under 13 år, trots att plattformarnas egna regler fastställer 13 år som lägsta ålder för att skapa konto. Problemet sträcker sig dock längre än så: EU hävdar att Meta inte bedömer riskerna för att barn exponeras för olämpligt innehåll på ett tillräckligt sätt.

Meta avvisar anklagelserna och hävdar att man redan har åtgärder på plats för att identifiera och ta bort konton för minderåriga. Företaget betonar dock att åldersbedömning är en branschgemensam utmaning som kräver gemensamma lösningar.

Vi kommer att fortsätta arbeta konstruktivt med Europeiska kommissionen för att lösa denna viktiga fråga, säger Meta i ett uttalande och tillägger att man inom kort kommer att presentera ytterligare åtgärder.

EU:s utredning, som inleddes 2024, visar enligt kommissionären Henna Virkkunen att Facebook och Instagram inte gör tillräckligt för att förhindra att barn kommer åt plattformarna, trots att företagets egna villkor tydligt anger att tjänsterna inte är avsedda för barn under 13 år.

Digital Services Act ställer krav på konkreta åtgärder, inte bara på pappret. Plattformarna måste aktivt tillämpa sina egna regler för att skydda användarna, inklusive barn, säger Virkkunen i ett uttalande.

Meta har nu möjlighet att bemöta de preliminära slutsatserna innan kommissionen fattar ett slutgiltigt beslut. Om företaget döms för brott mot DSA kan det resultera i böter på upp till 6 procent av den globala årsomsättningen.