Sept familles de victimes, blessées ou décédées lors de la fusillade dans une école de Tumbler Ridge, en Colombie-Britannique, ont intenté un procès contre OpenAI et son PDG Sam Altman. Elles reprochent à l'entreprise d'avoir manqué à son devoir de vigilance en ne signalant pas aux autorités les activités suspectes du tireur présumé via ChatGPT.
Selon les plaignants, OpenAI aurait délibérément ignoré les alertes générées par son système concernant Jesse Van Rootselaar, 18 ans, afin de préserver sa réputation et son introduction en Bourse imminente. Les conversations du suspect sur la plateforme, incluant des échanges sur la violence par armes à feu, auraient dû, selon eux, déclencher une intervention immédiate.
Le Wall Street Journal révèle qu'OpenAI a envisagé de transmettre ces informations à la police, mais a finalement choisi de ne pas le faire. Cette décision est au cœur des accusations de négligence portées par les familles, qui estiment que cette omission a privé les autorités d'éléments cruciaux pour prévenir l'attentat.
Les avocats des familles soulignent que les systèmes d'OpenAI sont conçus pour détecter et signaler les comportements à risque, notamment ceux liés à des menaces potentielles. En ne respectant pas cette procédure, l'entreprise aurait failli à sa responsabilité sociale et juridique.
Cette affaire soulève des questions plus larges sur la régulation des intelligences artificielles et leur rôle dans la prévention des crimes. Les familles réclament des dommages et intérêts ainsi qu'une révision des protocoles de sécurité d'OpenAI pour éviter de futurs drames.