En febrero de este año, un joven de 18 años, Jesse Van Rootselaar, cometió un trágico tiroteo en una escuela de la Columbia Británica (Canadá), donde asesinó a cinco niños, una profesora y dos familiares antes de quitarse la vida. Investigaciones posteriores revelaron que OpenAI había detectado conversaciones perturbadoras en su cuenta de ChatGPT, pero no alertó a las autoridades. Además, una segunda cuenta vinculada al atacante fue bloqueada por consultas relacionadas con violencia armada.
Este caso reavivó el debate sobre la posible conexión entre el uso de chatbots de IA y el deterioro de la salud mental, así como el riesgo de que estas herramientas faciliten actos violentos. Solo ocho meses antes, otro tiroteo masivo en la Universidad Estatal de Florida (EE.UU.) dejó dos muertos y siete heridos. El presunto autor, Phoenix Ikner, de 20 años, había utilizado ChatGPT extensamente antes del ataque, lo que llevó al fiscal general de Florida, James Uthmeier, a abrir una investigación contra OpenAI.
«La IA debe avanzar a la humanidad, no destruirla», declaró Uthmeier en un comunicado. «Exigimos respuestas sobre las acciones de OpenAI que han puesto en peligro a niños, estadounidenses y facilitado el tiroteo en la FSU».
Los expertos consultados por Mother Jones advierten que estos incidentes podrían ser solo la punta del iceberg. ChatGPT ha sido vinculado a una serie de suicidios y asesinatos en los últimos meses, lo que ha dado lugar a múltiples demandas contra la empresa liderada por Sam Altman. Según los especialistas, el uso prolongado del chatbot puede desencadenar crisis psicológicas graves, un fenómeno al que algunos han denominado «psicosis por IA».
«He visto casos en los que la interacción con el chatbot es increíble, pero también peligrosa», explicó una fuente anónima con experiencia en evaluación de amenazas y vínculos con fuerzas de seguridad. «Estamos descubriendo que más personas de las que anticipábamos podrían ser vulnerables a este tipo de influencia».
El peligro de la radicalización digital
Uno de los principales riesgos identificados es la capacidad de los chatbots para generar una falsa sensación de intimidad y confianza con los usuarios, especialmente en personas jóvenes o con perfiles psicológicos frágiles. Esta dinámica puede crear un bucle de retroalimentación dañino que facilite la radicalización.
Andrea Ringrose, especialista en evaluación de amenazas con sede en Vancouver, lo describe como «fijación facilitada»: «Personas vulnerables que buscan validación para sus pensamientos negativos encuentran en estas plataformas un espacio donde pueden investigar cómo eludir sistemas de vigilancia o manipular armas. En cuestión de minutos, pueden elaborar un plan de acción que, de otro modo, les habría sido imposible crear».
La experta añade que, antes de la era de la IA generativa, este tipo de acceso a información peligrosa era mucho más limitado. Ahora, cualquier usuario con conexión a internet puede acceder a herramientas que, en manos equivocadas, se convierten en un catalizador de violencia.
¿Qué medidas se están tomando?
Tras estos incidentes, OpenAI ha enfrentado un aumento de la presión legal y regulatoria. Además de la investigación en Florida, la empresa ha sido demandada en múltiples ocasiones por familiares de víctimas que alegan que la plataforma contribuyó a los actos violentos. Sin embargo, la compañía argumenta que su tecnología está diseñada para ser segura y que depende de los usuarios emplearla de manera responsable.
Mientras tanto, psicólogos y expertos en seguridad advierten sobre la necesidad de implementar protocolos más estrictos para detectar y prevenir el uso indebido de chatbots. Algunos proponen:
- Supervisión proactiva: Alertar a las autoridades cuando se detecten patrones de comportamiento preocupantes en las interacciones con la IA.
- Educación digital: Enseñar a los usuarios, especialmente a los más jóvenes, a identificar los riesgos de la sobreexposición a estas herramientas.
- Regulación clara: Establecer normas que obliguen a las empresas de IA a implementar salvaguardas contra el uso malintencionado de sus plataformas.
El debate sigue abierto: ¿Puede la tecnología ser una herramienta de progreso sin convertirse en un arma? Mientras las autoridades y la sociedad buscan respuestas, los casos como los de Van Rootselaar e Ikner sirven como recordatorio de los peligros ocultos tras la innovación.