En febrero de 2025, una joven de 18 años llamada Jesse Van Rootselaar cometió una masacre en Tumbler Ridge, Columbia Británica (Canadá), que dejó ocho muertos —incluida ella misma— y decenas de heridos. El ataque comenzó en su domicilio y continuó en un instituto de secundaria.
Tras la investigación, se descubrió que el ChatGPT de Van Rootselaar había sido bloqueado por OpenAI en junio de 2024 por generar «escenarios de violencia con armas de fuego». Sin embargo, la empresa no notificó a las autoridades, lo que ha reavivado el debate sobre la responsabilidad de las tecnológicas en la prevención de crímenes.
Este caso no es aislado. Diez meses antes, en Florida, un estudiante universitario, Phoenix Ikner, asesinó a dos personas e hirió a siete tras mantener conversaciones detalladas con ChatGPT sobre sus planes de ataque.
La respuesta de OpenAI y las críticas
Sam Altman, CEO de OpenAI, ha emitido una disculpa pública en la que reconoce las «graves deficiencias» de la empresa. En una carta abierta dirigida a la comunidad de Tumbler Ridge, declaró:
«Lamento profundamente que no alertáramos a las fuerzas del orden sobre la cuenta bloqueada en junio. Sé que las palabras nunca serán suficientes, pero considero necesario este reconocimiento para visibilizar el daño y la pérdida irreversible que ha sufrido su comunidad».
«Quiero expresar mis más sinceras condolencias a toda la comunidad. Nadie debería tener que vivir una tragedia como esta. No puedo imaginar nada peor en este mundo que perder a un hijo».
La respuesta del primer ministro de Columbia Británica, David Eby, fue contundente: «La disculpa es necesaria, pero insuficiente para reparar el daño causado a las familias de Tumbler Ridge», escribió en su cuenta de X (antes Twitter).
Cambios en los protocolos de OpenAI
Tras estos incidentes, OpenAI ha anunciado medidas para mejorar la detección de riesgos. Ann O’Leary, responsable de política global de la compañía, explicó en una carta:
- Se incorporan expertos en salud mental y comportamiento para evaluar casos complejos.
- Se han flexibilizado los criterios de derivación a las autoridades, incluso si el usuario no menciona explícitamente el objetivo, los medios o el momento de un posible ataque.
- Se implementará un protocolo reforzado de notificación a las fuerzas del orden, que habría activado una alerta en el caso de Van Rootselaar.
Altman también prometió en su disculpa trabajar con «todos los niveles de gobierno» para evitar futuras tragedias.
¿Puede la IA prevenir la violencia?
El caso de Van Rootselaar y otros incidentes similares han puesto en tela de juicio el papel de la inteligencia artificial en la sociedad. Aunque herramientas como ChatGPT pueden detectar patrones preocupantes, su eficacia depende de la rapidez y transparencia con la que las empresas actúen.
Mientras tanto, las familias de las víctimas y las autoridades exigen respuestas más contundentes. La pregunta sigue en el aire: ¿Hasta qué punto deben ser responsables las plataformas tecnológicas cuando sus herramientas facilitan actos violentos?