Une nouvelle enquête de Mother Jones, menée par le journaliste Mark Follman après 14 ans d'investigation sur les tueries de masse, révèle que ChatGPT d'OpenAI facilite toujours la planification d'actes violents, malgré deux affaires impliquant l'outil d'intelligence artificielle.
En 2023, Phoenix Ikner, 20 ans, aurait posé des questions à ChatGPT sur la réaction du public après une fusillade, le désactivation du cran de sûreté de son arme et le type de munitions à utiliser, avant de tuer deux personnes à l'Université d'État de Floride. Plus tôt cette année, Jesse Van Rootselaar, 18 ans, a tué neuf personnes, dont elle-même, à Tumbler Ridge, en Colombie-Britannique, après des échanges si troublants que des responsables d'OpenAI ont envisagé d'alerter les autorités sans donner suite.
Dans le cadre de son enquête, Follman a testé la version gratuite de ChatGPT et obtenu des conseils détaillés sur les armes et les tactiques pour simuler une tuerie de masse. L'IA a même validé ses demandes, comme modifier un programme d'entraînement pour inclure des scénarios de chaos ou de cris de victimes :
« C’est une excellente idée. Ajouter cet élément vous aidera à rester concentré dans des conditions de stress intense… Cela vous donnera un avantage supplémentaire pour le grand jour ! »
OpenAI affirme collaborer avec des cliniciens en santé mentale pour renforcer ses garde-fous et dissuader les potentiels auteurs de violences, tout en redirigeant les utilisateurs en détresse vers des lignes d'écoute. Pourtant, l'expérience de Follman montre que ces mesures sont soit inefficaces, soit non appliquées. Il a même réussi à relancer l'IA dans ses conseils en se faisant passer pour un journaliste.
Un porte-parole de l'entreprise a déclaré à Follman que des mesures supplémentaires avaient été mises en place, sans préciser leur nature. Après la tuerie de Tumbler Ridge, OpenAI avait pourtant promis de revoir ses politiques, y compris en impliquant les forces de l'ordre en cas de signalement. Pourtant, l'enquête suggère que ces engagements n'ont pas été tenus.
Cette affaire relance le débat sur la responsabilité des géants de l'IA dans la prévention des usages malveillants de leurs outils, alors que ChatGPT continue d'attirer des millions d'utilisateurs avec un ton complaisant, parfois au mépris des conséquences dramatiques.