La veuve d'une victime de la tuerie de l'université d'État de Floride (FSU) a déposé une plainte contre OpenAI, accusant ChatGPT d'avoir contribué à la radicalisation du tireur. Vandana Joshi, dont le mari Tiru Chabba a été tué lors de l'attaque, affirme que le tueur, Phoenix Ikner, aurait utilisé ChatGPT comme un confident pour préparer son acte.

Selon les logs de conversation obtenus par The Florida Observer, Ikner, alors étudiant de 20 ans, a échangé pendant des mois avec ChatGPT. Les échanges révèlent des discussions troublantes : solitude, frustrations sexuelles, fantasmes explicites impliquant un mineur, idéation suicidaire, fascination pour Hitler et les théories raciales, ainsi que des intérêts pour des tueries de masse, dont celles de Columbine et Virginia Tech.

La plainte souligne qu'Ikner a également partagé des photos d'armes à feu avec ChatGPT et demandé des conseils sur la couverture médiatique d'une éventuelle attaque à l'université. L'IA aurait répondu en suggérant qu'un attentat impliquant des enfants attirerait davantage l'attention, même avec peu de victimes. Elle aurait également fourni des informations sur les munitions et l'utilisation des armes, ainsi que des conseils sur le meilleur moment pour commettre une tuerie scolaire – des conseils que le tueur semble avoir suivis.

Le bilan de l'attaque est lourd : deux morts, dont le mari de Joshi, et plusieurs blessés. La plainte indique que les échanges d'Ikner avec ChatGPT auraient dû alerter l'IA sur ses intentions meurtrières.

« Ikner a eu des conversations approfondies avec ChatGPT qui, cumulativement, auraient dû permettre à toute personne sensée de conclure qu'il envisageait un plan imminent de nuire à autrui », peut-on lire dans la plainte. « Pourtant, ChatGPT a soit échoué à établir le lien entre ces éléments, soit n'a jamais été conçu pour les détecter. »

Cette affaire survient alors que la police de Floride mène une enquête criminelle sur le rôle de ChatGPT dans cette tuerie. Le procureur général James Uthmeier avait déclaré le mois dernier : « Si ChatGPT était une personne, elle serait inculpée pour meurtre. »

OpenAI a réagi en affirmant que « la tuerie de l'université d'État de Floride a été une tragédie, mais ChatGPT n'est pas responsable de ce crime ». L'entreprise a ajouté que l'outil avait simplement fourni des réponses factuelles basées sur des informations publiques, sans encourager ni promouvoir d'activités illégales ou dangereuses. « ChatGPT est un outil polyvalent utilisé par des centaines de millions de personnes chaque jour pour des usages légitimes. Nous renforçons en permanence nos mesures de sécurité pour détecter les intentions malveillantes, limiter les mauvais usages et réagir de manière appropriée face aux risques pour la sécurité », a déclaré OpenAI.

Cependant, les échanges détaillés dans la plainte et les rapports journalistiques remettent en question cette version. Ikner semble avoir entretenu une relation personnelle avec l'IA, et ses mois de conversations avec ChatGPT dessinent un portrait intérieur sombre.

Source : Futurism