Un nuevo caso ha puesto de manifiesto los riesgos asociados al uso indebido de la inteligencia artificial. El principal sospechoso del brutal asesinato de dos estudiantes de doctorado en la Universidad del Sur de Florida (USF) consultó a ChatGPT sobre cómo ocultar un cadáver en un contenedor de basura, según han revelado los fiscales.

Hisham Abugharbieh, de 26 años, está acusado del asesinato en primer grado de Zamil Limon y Nahida Bristy. Durante el interrogatorio, el acusado preguntó a la herramienta de IA: "¿Qué pasa si un humano se mete [sic] en una bolsa negra de basura y se tira a un contenedor?"

Tras recibir una respuesta que calificaba la acción como peligrosa, Abugharbieh respondió con una pregunta aún más reveladora: "¿Cómo lo descubrirían?"

Las pruebas en su contra son contundentes. Un compañero de piso declaró haberlo visto cargando cajas en un contenedor compactador. Además, durante el registro de su vivienda, se encontraron objetos pertenecientes a Limon, incluido su carnet universitario.

El cuerpo de Limon fue hallado días después en una bolsa de basura resistente, no en un contenedor, sino al lado de un puente sobre la bahía de Tampa. La autopsia reveló múltiples heridas por objetos punzantes. Los restos de Bristy aún no han sido identificados, a pesar de que se recuperaron restos humanos durante el fin de semana, según NBC News.

Abugharbieh enfrenta cargos graves, entre ellos asesinato en primer grado, agresión, privación ilegal de libertad y almacenamiento indebido de restos humanos, según documentos judiciales. Aún no se ha esclarecido el posible móvil del crimen, pero su interacción con ChatGPT refleja una tendencia preocupante: el uso de IA para planificar actos delictivos.

La IA como herramienta en crímenes violentos

Este caso no es el primero en el que herramientas de inteligencia artificial se vinculan a crímenes violentos. Hace aproximadamente diez meses, el tiroteo masivo en la Universidad Estatal de Florida también estuvo relacionado con ChatGPT. El sospechoso, Phoenix Ikner, preguntó a la IA cómo desactivar el seguro de su arma, qué tipo de munición usar y dónde encontrar más víctimas en el campus.

Más recientemente, en la localidad minera de Tumbler Ridge (Canadá), el perpetrador de otro tiroteo masivo, Jesse Van Rootselaar (18 años), también utilizó ChatGPT antes de cometer los asesinatos. Aunque su cuenta fue bloqueada el año pasado, OpenAI no alertó a las autoridades, una omisión que ha generado una oleada de demandas contra la empresa.

OpenAI responde a las críticas

Ante el aumento de casos en los que su tecnología se ha utilizado para planificar crímenes, OpenAI publicó esta semana un comunicado en su blog en el que asegura que tomará medidas para "aprender, mejorar y corregir errores" tras incidentes como tiroteos masivos, amenazas contra funcionarios, intentos de bombardeos y ataques a comunidades e individuos.

Sin embargo, las críticas persisten. Expertos en seguridad y víctimas exigen mayor responsabilidad por parte de las empresas tecnológicas, especialmente en un contexto donde la IA se integra cada vez más en la vida cotidiana.

Un patrón preocupante

Lo ocurrido con Abugharbieh y otros casos similares demuestran que, aunque la IA puede ser una herramienta útil, también puede ser mal utilizada con consecuencias devastadoras. La facilidad con la que los usuarios pueden obtener información potencialmente delictiva a través de estos sistemas plantea nuevos desafíos para las fuerzas de seguridad y el sistema judicial.

Mientras las investigaciones continúan, este caso sirve como recordatorio de la necesidad de regular el uso de la inteligencia artificial y garantizar que no se convierta en un facilitador de actividades ilegales.

Fuente: Futurism