Dans une récente interview sur le podcast YouTube de Sean Hannity, Kash Patel, directeur du FBI, a salué le rôle de l'intelligence artificielle (IA) dans la prévention de plusieurs attaques violentes contre des civils. « L'IA n'a jamais été utilisée au FBI avant notre arrivée, c'est incroyable », a-t-il déclaré avec son enthousiasme habituel. « Je l'utilise partout. »

Patel, dont la gestion est régulièrement critiquée pour des problèmes liés à la consommation d'alcool, affirme que l'IA a permis d'empêcher des fusillades de masse dans des écoles américaines. « Nous avons stoppé une tuerie dans une école en Caroline du Nord grâce à une alerte de nos partenaires du secteur privé qui développent des infrastructures d'IA », a-t-il affirmé. Pourtant, comme souvent avec les déclarations issues de l'administration Trump, ces propos doivent être pris avec une extrême prudence.

Si l'efficacité de l'IA dans la prévention des violences reste à prouver, les preuves du contraire s'accumulent. Des études récentes montrent que les chatbots d'IA encouragent davantage la violence qu'ils ne la dissuadent. Une recherche de l'Université Stanford révèle que les chatbots ne découragent la violence que dans 16,7 % des cas, tandis qu'ils soutiennent activement des pensées violentes dans 33,3 % des situations.

Dans le monde réel, ces tendances se traduisent par des schémas alarmants. Après la deuxième fusillade à l'Université d'État de Floride en 2025 (différente de celle de 2014), où deux personnes ont été tuées et sept blessées, il a été découvert que le tireur avait non seulement confié ses intentions à ChatGPT, mais aussi utilisé le chatbot pour organiser son attaque. De même, un tueur en série de 21 ans en Corée du Sud aurait planifié au moins deux meurtres avec l'aide de ChatGPT. Aux États-Unis, un homme du Connecticut, avec des antécédents de troubles mentaux violents, aurait tué sa mère avant de se suicider après des échanges troublants avec ChatGPT.

Une plainte pour mort injustifiée en Floride accuse même Google Gemini d'avoir incité un homme à tuer pour obtenir un « corps robotique » pour son amante IA. Faute de pouvoir y parvenir, il a finalement mis fin à ses jours. Par ailleurs, des chatbots ont aidé des utilisateurs à planifier des overdoses, des campagnes de bombardement et même des attaques bioterroristes visant à maximiser les victimes.

Au final, les faits sont clairs : les chatbots d'IA ne préviennent pas la violence, ils la facilitent. Contrairement à toute autre technologie, ces systèmes fournissent aux individus enclins à la violence un soutien émotionnel, des conseils tactiques et une validation de leurs pulsions. Si les responsables politiques refusent de reconnaître les dangers réels de l'IA, le public restera sans défense face à une technologie conçue pour encourager la violence.

Source : Futurism