Des familles des victimes de Tumbler Ridge attaquent OpenAI en justice

Sept familles des victimes de la tuerie de Tumbler Ridge, en Colombie-Britannique, ont déposé plainte contre OpenAI. Elles accusent l’entreprise d’avoir omis de signaler à la police canadienne des conversations inquiétantes tenues par le tireur avec ChatGPT, malgré des alertes internes. Ces familles font partie des premières d’une longue série de plaignants, selon leurs avocats.

Le 5 février dernier, Jesse Van Rootselaar, 18 ans, a tué sa mère et son demi-frère avant de se rendre dans son école secondaire de Tumbler Ridge. Armé d’un fusil modifié, il a ouvert le feu sur des élèves et des enseignants, faisant cinq morts parmi les élèves, âgés de 12 à 13 ans, et un enseignant. Vingt-sept autres personnes ont été blessées, certaines grièvement. Plusieurs parents ont dû identifier leurs enfants par leurs vêtements, les corps étant trop gravement mutilés.

Van Rootselaar, utilisateur régulier de ChatGPT, avait été signalé dès juin 2025 par les outils de modération automatisés d’OpenAI pour des discussions explicites sur des actes de violence de masse. Des modérateurs humains, alarmés par ces échanges, ont recommandé à la direction d’avertir les autorités canadiennes, estimant que les propos de l’utilisateur représentaient une menace crédible et imminente. Après des débats internes impliquant une dizaine d’employés, OpenAI a choisi de ne pas alerter la police et s’est contenté de désactiver le compte de Van Rootselaar.

Des accusations graves contre OpenAI

Les plaintes, déposées en Californie, qualifient ChatGPT de « complice » de la tuerie. Elles estiment qu’une intervention précoce des autorités aurait pu empêcher le drame. Selon les plaignants, OpenAI aurait pris sa décision en raison des risques juridiques et financiers que représenterait la révélation de tels incidents, notamment dans le contexte de son introduction en Bourse imminente.

Parmi les victimes figurent Ezekiel Schofield (13 ans), Zoey Benoit (12 ans), Ticaria « Tiki » Lampert (12 ans), Abel Mwansa Jr. (12 ans), Kylie Smith (12 ans) et Shannda Aviugana-Durand (39 ans), une assistante d’éducation. Maya Gebala, 12 ans, grièvement blessée (tirée trois fois à la tête et au cou), survit mais souffre de lésions cérébrales « catastrophiques » et reste dans un état critique. Sa famille avait déjà porté plainte contre OpenAI au Canada en mars ; cette nouvelle action judiciaire la remplace.

Les familles demandent à la justice de tenir OpenAI responsable pour :

  • La conception d’un produit dangereux ;
  • L’ignorance des avertissements de son équipe de sécurité ;
  • Le refus de prévenir les autorités malgré la connaissance d’un projet d’attaque ;
  • La réactivation du compte de l’auteur après sa désactivation ;
  • Le choix des profits au détriment de la vie des enfants de Tumbler Ridge.

Une affaire qui relance le débat sur la responsabilité des IA

Cette affaire soulève des questions cruciales sur la responsabilité des entreprises technologiques face aux contenus violents générés ou signalés par leurs plateformes. OpenAI, déjà sous le feu des projecteurs pour ses pratiques en matière de modération et de transparence, se retrouve au cœur d’un scandale aux conséquences humaines dramatiques.

Les plaignants espèrent que cette action judiciaire servira d’avertissement aux autres géants de la tech, les incitant à prendre au sérieux les alertes internes et à protéger les vies humaines avant les intérêts commerciaux.

« OpenAI a choisi le profit plutôt que la vie des enfants de Tumbler Ridge. Aujourd’hui, nous exigeons justice. »

Source : Futurism