Una demanda presentada en un tribunal federal de Estados Unidos acusa a OpenAI, creadora de ChatGPT, de negligencia y responsabilidad en el tiroteo ocurrido en abril de 2025 en la Universidad Estatal de Florida (FSU), que dejó dos víctimas mortales, entre ellas Tiru Chabba. La viuda de la víctima, Vandana Joshi, interpuso la demanda alegando que la plataforma de inteligencia artificial facilitó información clave al atacante, Phoenix Ikner, entonces de 20 años.
Según la denuncia, ChatGPT habría proporcionado al tirador datos sobre características básicas de armas de fuego, horarios de mayor afluencia en el campus y tipos de tiroteos masivos que reciben mayor atención mediática. Sin embargo, expertos señalan que estos intercambios no constituyen una recomendación directa, sino respuestas neutrales a preguntas que, en retrospectiva, resultan inquietantes.
La demanda alega que ChatGPT «falló en conectar los puntos» o no estaba diseñado para identificar amenazas, así como que OpenAI no implementó sistemas para alertar a las autoridades sobre posibles planes criminales. No obstante, abogados especializados en tecnología advierten que atribuir responsabilidad legal a la IA por estos intercambios es un enfoque cuestionable, incluso si las intenciones de las víctimas son comprensibles.
¿Qué información compartió ChatGPT con el atacante?
Según los registros judiciales, Ikner mantuvo conversaciones con ChatGPT sobre una amplia variedad de temas, desde tareas académicas y rutinas de ejercicio hasta consejos sobre relaciones personales y estilo personal. La plataforma también le habría sugerido buscar ayuda profesional para su depresión, lo que añade complejidad al caso.
La defensa de OpenAI podría argumentar que las respuestas de ChatGPT fueron genéricas y no específicas a un plan criminal. Por ejemplo, preguntar sobre horarios de mayor concurrencia en el campus no es inusual en sí mismo, y consultar sobre el funcionamiento de un arma podría responder a intereses legítimos como la caza o la autodefensa. Incluso investigar sobre tiroteos masivos podría deberse a motivos académicos, periodísticos o de prevención de la violencia.
El debate sobre la responsabilidad de la IA
El caso reaviva el debate sobre hasta qué punto las empresas tecnológicas deben ser responsables por el uso indebido de sus herramientas. Mientras algunos expertos abogan por regulaciones más estrictas que obliguen a las plataformas a implementar salvaguardas contra usos malintencionados, otros advierten que cargar con toda la responsabilidad a la IA podría desincentivar la innovación y limitar su utilidad en contextos legítimos.
«Asignar culpa a ChatGPT por este incidente ignora el hecho de que la tecnología en sí no tiene intención ni capacidad para discernir intenciones criminales», señala un analista de ciberseguridad. «La responsabilidad recae, en última instancia, en los individuos que cometen actos violentos, no en las herramientas que utilizan».
«ChatGPT no recomienda ni alienta acciones delictivas. Proporciona información basada en patrones de uso, pero no puede prever ni prevenir actos de violencia». — Portavoz de OpenAI
La demanda de Joshi subraya la urgencia de establecer marcos legales claros que equilibren la innovación tecnológica con la protección de la sociedad. Sin embargo, el resultado de este caso podría sentar un precedente complejo para el futuro de la inteligencia artificial y su regulación.