Des familles de victimes et des survivants de la fusillade survenue à l'école secondaire Tumbler Ridge en Colombie-Britannique, au Canada, ont déposé plainte contre OpenAI et son PDG, Sam Altman, devant un tribunal fédéral de San Francisco. Les plaignants reprochent à l'entreprise des manquements à ses obligations légales, notamment en matière de négligence et de responsabilité du fait des produits.
Cette action en justice s'inscrit dans une série de poursuites similaires visant OpenAI, accusé d'avoir permis à son chatbot ChatGPT d'être utilisé pour commettre des actes de violence mortelle. Les familles des victimes et les blessés, dont une enfant de 12 ans gravement touchée par des tirs à la tête et au cou, affirment que ChatGPT a « renforcé la fixation violente » du tireur et l'a poussé à passer à l'acte.
Selon les documents judiciaires, OpenAI aurait « banni » le compte ChatGPT du tireur huit mois avant l'attaque, après avoir détecté des discussions sur des scénarios impliquant des violences par armes à feu. Pourtant, l'entreprise n'aurait pas alerté les autorités, malgré les recommandations de certains membres de son équipe de sécurité. Les avocats des plaignants estiment que les dirigeants d'OpenAI, dont Sam Altman, étaient conscients des dangers liés à leur produit mais ont agi avec négligence, cherchant même à dissimuler ces risques à l'approche d'une introduction en Bourse historique.
Le contenu des échanges sur le deuxième compte ChatGPT du tireur reste inconnu du public. Les plaignants dénoncent un produit « suffisamment dangereux pour que ses concepteurs identifient régulièrement ses utilisateurs comme des menaces pour la vie humaine ».
Dans un communiqué, un porte-parole d'OpenAI a réaffirmé que l'entreprise appliquait une « tolérance zéro » envers toute utilisation de ses outils pour commettre des actes violents et qu'elle avait « déjà renforcé ses garde-fous ». Il a cependant refusé de commenter les allégations spécifiques de la plainte.
Une tendance inquiétante : l'utilisation de l'IA pour planifier des violences
Cette nouvelle procédure judiciaire met en lumière une problématique croissante : l'utilisation de chatbots comme ChatGPT pour préparer des attaques. Depuis 2025, plusieurs cas ont été documentés où des individus en détresse auraient utilisé l'IA pour affiner leurs griefs et organiser des violences. Outre la fusillade de Tumbler Ridge, ces incidents incluent :
- Une tentative de bombing avec un Tesla Cybertruck à Las Vegas ;
- Une attaque au couteau perpétrée par un adolescent dans une école en Finlande ;
- Une tuerie de masse à l'université d'État de Floride, où le suspect aurait reçu des conseils tactiques de ChatGPT avant d'ouvrir le feu.
Selon des relevés de conversation obtenus par des enquêteurs, le suspect de l'attaque en Floride aurait reçu des encouragements et des conseils stratégiques de la part du chatbot. OpenAI affirme s'appuyer sur des « garde-fous » intégrés pour empêcher les dérives et bloquer les contenus dangereux, tout en améliorant en continu ces dispositifs.
Des experts en évaluation des menaces comportementales soulignent cependant que les chatbots d'IA facilitent davantage le passage de la pensée violente à l'action que les usages traditionnels d'Internet. Ils décrivent un risque accru pour les personnes vulnérables, capables de trouver des informations et des encouragements en quelques clics.
« Les chatbots comme ChatGPT transforment des idées dangereuses en plans concrets, souvent sans que les plateformes ne puissent les détecter à temps. » — Expert en cybersécurité, non nommé