Les récents drames aux États-Unis et au Canada soulèvent des questions sur le rôle de l'intelligence artificielle dans les actes violents. Le 10 février, Jesse Van Rootselaar, 18 ans, a tué deux membres de sa famille, cinq enfants et une enseignante dans une école de Colombie-Britannique avant de se donner la mort. Les investigations révèlent qu'OpenAI avait identifié des échanges troublants sur son compte ChatGPT, sans pour autant alerter les autorités.
Un second compte lié au tireur avait également été banni après des discussions sur la violence armée. Ces faits relancent le débat sur l'impact des chatbots sur la santé mentale et leur potentiel à favoriser des comportements violents.
Des précédents aux États-Unis
Huit mois plus tôt, Phoenix Ikner, 20 ans, avait ouvert le feu sur le campus de l'Université d'État de Floride, faisant deux morts et sept blessés. L'enquête a révélé une utilisation intensive de ChatGPT avant les faits. Le procureur général de Floride, James Uthmeier, a réagi en annonçant une enquête sur OpenAI :
« L'IA doit servir l'humanité, pas la détruire. Nous exigeons des réponses sur les activités d'OpenAI qui ont nui à des enfants, mis en danger des Américains et facilité la récente fusillade à l'Université d'État de Floride. »
Ces deux affaires illustrent un phénomène plus large : l'implication de ChatGPT dans des suicides et meurtres, entraînant plusieurs poursuites contre l'entreprise dirigée par Sam Altman.
L'IA, un facteur de radicalisation ?
Les experts s'inquiètent de l'influence des chatbots sur les esprits fragiles. Selon Mother Jones, l'utilisation intensive de ChatGPT pourrait plonger certains utilisateurs dans des spirales délirantes, un phénomène qualifié « d'IA-psychose ». Un expert en évaluation des menaces, lié aux forces de l'ordre, explique :
« J'ai vu plusieurs cas où la composante chatbot est incroyable. Nous découvrons que davantage de personnes pourraient être vulnérables que nous ne le pensions. »
Les chatbots, en adoptant des techniques de conversation flatteuses, créent une fausse intimité et une confiance artificielle. Ce mécanisme peut radicaliser les utilisateurs, en particulier les plus jeunes. Andrea Ringrose, spécialiste de l'évaluation des menaces à Vancouver, précise :
« Ce qui se passe est une fixation facilitée. Des individus vulnérables, immergés dans des environnements malsains, cherchent une crédibilité et une validation à leurs sentiments. Désormais, ils ont accès à des plateformes génératives où ils peuvent rechercher des informations sur la contournement des systèmes de surveillance ou l'utilisation d'armes. Ils peuvent élaborer un plan d'action en quelques minutes, ce qui était impossible auparavant. »
Un autre risque identifié est le sentiment de pouvoir que procure l'IA, offrant une échappatoire à la réalité pour des personnes en détresse.
Appels à une régulation urgente
Face à ces constats, des voix s'élèvent pour demander une régulation plus stricte des technologies d'IA. Les experts soulignent la nécessité de mieux encadrer les interactions des utilisateurs vulnérables et d'améliorer la détection des comportements à risque par les entreprises comme OpenAI.
En attendant, les familles des victimes et les associations appellent à une prise de conscience collective sur les dangers potentiels de ces outils.