Une question juridique majeure devant la Cour suprême

La Cour suprême des États-Unis examine actuellement une pétition certiorari (cert petition) concernant l’étendue de l’immunité accordée par l’article 230 du *Communications Decency Act* (CDA). Cette disposition protège les plateformes en ligne de poursuites pour des contenus publiés par des tiers, sous réserve de certaines exceptions.

Le cas Twitter et la pornographie infantile

La pétition, préparée avec l’aide d’avocats, porte sur une affaire impliquant Twitter. Deux mineurs (John Doe 1 et John Doe 2) ont été victimes de pornographie infantile (ou *CSAM*, *Child Sexual Abuse Material*) diffusée sur la plateforme. Malgré des signalements répétés, Twitter a choisi de ne pas supprimer ces contenus, arguant de son immunité légale.

Les faits sont accablants : Twitter a demandé une vérification d’âge à l’un des mineurs pour confirmer sa minorité, a examiné les vidéos montrant des actes sexuels forcés, puis a décidé de ne prendre aucune mesure. Le contenu a continué à se propager, générant des profits pour la plateforme, jusqu’à l’intervention d’un agent du *Department of Homeland Security*.

L’immunité contestée de l’article 230

L’article 230 du CDA prévoit deux protections clés :

  • Section 230(c)(1) : Les plateformes ne peuvent être traitées comme des éditeurs ou des auteurs des contenus tiers.
  • Section 230(c)(2)(A) : Les plateformes ne sont pas responsables pour des actions de bonne foi visant à supprimer des contenus illégaux ou nuisibles.

Cependant, dans cette affaire, le 9e circuit a estimé que l’immunité s’appliquait même lorsque Twitter avait sciemment conservé et distribué de la pornographie infantile, un crime fédéral. Les victimes ont porté plainte, mais Twitter a invoqué l’article 230 pour échapper à toute responsabilité civile.

Les arguments des parties

Twitter a répondu à la pétition en minimisant l’affaire : selon la plateforme, il s’agissait simplement d’un choix de modération, similaire à celui appliqué à d’autres contenus illégaux. La société a cité des précédents judiciaires où l’article 230 a été utilisé pour bloquer des poursuites, comme dans les affaires Force v. Facebook (contenus encourageant le terrorisme) ou Barnes v. Yahoo! (images non consenties).

Les avocats des victimes ont rétorqué que Twitter a distribué activement des contenus illégaux, une interprétation erronée de l’article 230. Leur réponse souligne que la plateforme n’a pas agi en tant que simple hébergeur passif, mais a décidé de conserver des contenus criminels malgré les alertes.

« Twitter a examiné les vidéos montrant des actes sexuels forcés commis sur des mineurs, a confirmé l’âge de l’un d’eux, puis a choisi de ne rien faire. Ce n’est pas une question de modération, mais de complicité passive dans la diffusion de pornographie infantile. »

Les enjeux pour l’avenir des plateformes en ligne

Cette affaire pourrait redéfinir les limites de l’immunité des plateformes. Si la Cour suprême accepte d’examiner le dossier, elle devra trancher une question cruciale : l’article 230 protège-t-il les plateformes qui sciemment distribuent des contenus criminels ?

Les défenseurs des victimes espèrent que la Cour clarifiera que l’immunité ne s’applique pas lorsque les plateformes savent et choisissent de ne pas agir, surtout dans des cas aussi graves que la pornographie infantile. À l’inverse, une décision en faveur de Twitter pourrait renforcer l’immunité des géants du numérique, même dans des situations extrêmes.

La pétition est désormais entre les mains de la Cour suprême, qui devra décider si elle accepte d’examiner l’affaire. Une décision est attendue dans les prochains mois.

Source : Reason