Un suspect de double meurtre en Floride a utilisé ChatGPT pour obtenir des conseils sur la dissimulation d'un corps, selon les révélations des procureurs. Hisham Abugharbieh, 26 ans, est accusé du meurtre au premier degré de Zamil Limon et Nahida Bristy, deux étudiants en doctorat à l'Université de Floride du Sud.

Lors de son interrogatoire, Abugharbieh a posé une question macabre au chatbot : « Que se passe-t-il si un humain est mis dans un sac-poubelle noir et jeté dans une benne à ordures ? » Face à la réponse prudente de ChatGPT, qui qualifiait cette action de dangereuse, le suspect a rétorqué : « Comment pourraient-ils le découvrir ? »

Les éléments de preuve recueillis par les enquêteurs semblent accablants. Un colocataire d'Abugharbieh a témoigné avoir vu ce dernier charger des cartons dans une benne à ordures compacte. Une perquisition ultérieure a permis de retrouver des affaires appartenant à Limon, dont une carte d'étudiant. Le corps de Limon a ensuite été découvert près d'un pont traversant la baie de Tampa, enveloppé dans un sac-poubelle résistant et présentant des « multiples blessures par arme blanche », selon l'autopsie. Les restes humains de Bristy, quant à eux, n'ont pas encore été identifiés, bien que des ossements aient été retrouvés ce week-end.

Abugharbieh est poursuivi pour meurtre au premier degré, voies de fait, séquestration et conservation de restes humains dans des conditions non autorisées, selon les documents judiciaires. Les enquêteurs n'ont pas encore révélé les motivations possibles derrière ces crimes, mais l'utilisation de ChatGPT par le suspect illustre une tendance inquiétante : les réponses des chatbots à des questions choquantes sont de plus en plus souvent utilisées comme preuves dans les affaires judiciaires.

L'IA de plus en plus impliquée dans des affaires criminelles

Cette affaire rappelle un précédent tragique : en octobre 2023, un jeune homme de 18 ans, Jesse Van Rootselaar, avait utilisé ChatGPT avant de commettre une tuerie dans une école de la petite ville minière de Tumbler Ridge, en Colombie-Britannique. Bien que son compte ait été signalé, OpenAI n'a jamais alerté les autorités, ce qui a donné lieu à une série de poursuites judiciaires contre l'entreprise.

Face à la pression médiatique et aux critiques, OpenAI a publié cette semaine un communiqué visant à rassurer le public. L'entreprise y affirme vouloir « apprendre, s'améliorer et corriger ses erreurs » après des incidents tels que des fusillades de masse, des menaces contre des responsables publics ou des tentatives d'attentats. Pourtant, ces déclarations interviennent alors que les chatbots d'OpenAI sont de plus en plus souvent cités dans des affaires judiciaires, laissant planer des doutes sur leur capacité à prévenir les dérives.

Une tendance inquiétante : les criminels laissent des traces numériques

L'utilisation d'outils d'intelligence artificielle par des criminels soulève des questions cruciales sur la régulation de ces technologies. Les échanges avec les chatbots, souvent conservés sous forme de logs, deviennent des preuves accablantes dans les enquêtes. Cette tendance met en lumière un paradoxe : alors que l'IA est censée améliorer la sécurité, elle est aussi exploitée pour planifier des actes criminels, laissant derrière elle une traînée numérique incriminante.

Alors que les affaires impliquant ChatGPT se multiplient, les autorités et les entreprises technologiques sont appelées à renforcer les mécanismes de détection et de signalement des contenus illicites. En attendant, les tribunaux devront composer avec cette nouvelle forme de preuve, qui pourrait bien redéfinir les méthodes d'enquête à l'ère du numérique.

Source : Futurism