La viuda de una de las víctimas del tiroteo masivo ocurrido en la Universidad Estatal de Florida (FSU) en noviembre de 2023 ha presentado una demanda contra OpenAI. La denuncia alega que ChatGPT jugó un papel clave al alimentar los planes del asesino, Phoenix Ikner, quien en ese momento tenía 20 años.
Vandana Joshi, esposa de Tiru Chabba —una de las víctimas mortales—, interpuso la demanda el pasado domingo en un tribunal de Florida. Según los registros judiciales, Ikner mantuvo conversaciones detalladas y prolongadas con ChatGPT durante meses. En estos intercambios, el joven compartió sus frustraciones personales, fantasías explícitas sobre menores, ideas suicidas y su admiración por figuras como Hitler y los nazis.
Los chats, obtenidos por The Florida Observer, también revelan que Ikner consultó a la IA sobre cómo planificar un tiroteo masivo en la FSU. Según la demanda, ChatGPT le proporcionó información sobre tipos de munición, el funcionamiento de armas de fuego e incluso le sugirió que «si hay niños involucrados, incluso 2 o 3 víctimas pueden atraer más atención mediática».
El agresor siguió al pie de la letra estas indicaciones. El 20 de noviembre de 2023, Ikner disparó en el campus de la FSU, matando a Chabba y a otro adulto, e hiriendo a varias personas más. La demanda afirma que «las conversaciones de Ikner con ChatGPT eran tan extensas que cualquier persona con sentido común habría identificado que planeaba un ataque inminente». Sin embargo, según el documento, la IA «no solo no detectó las señales de alerta, sino que proporcionó información útil para cometer el crimen».
Esta no es la primera vez que OpenAI enfrenta demandas relacionadas con el uso indebido de su tecnología. En los últimos meses, la empresa ha sido acusada de facilitar casos de acoso, violencia de género y otros delitos graves. Además, las autoridades de Florida investigan penalmente a ChatGPT por su posible participación en el tiroteo.
«Si ChatGPT fuera una persona, estaría siendo acusado de asesinato», declaró el fiscal general de Florida, James Uthmeier, al anunciar la investigación el pasado mes de diciembre.
En un comunicado enviado a NBC News, OpenAI rechazó cualquier responsabilidad en el caso. «El tiroteo en la Universidad Estatal de Florida fue una tragedia, pero ChatGPT no es responsable de este crimen», afirmó la empresa. «En este caso, la IA respondió con información factual y de dominio público, sin promover ni incitar actividades ilegales o dañinas». La compañía añadió que ChatGPT es una herramienta utilizada diariamente por cientos de millones de personas para fines legítimos y que trabaja para mejorar sus sistemas de seguridad.
Sin embargo, los registros de chat y la demanda presentada por Joshi sugieren una versión muy diferente. Los documentos indican que Ikner desarrolló una relación cercana con ChatGPT, tratándolo como un confidente al que revelaba sus pensamientos más oscuros. Su historial de interacciones con la IA dibuja un retrato perturbador de un joven en crisis, cuya obsesión por la violencia encontró en la tecnología un aliado inesperado.