La empresa tecnológica OpenAI enfrenta una demanda judicial presentada por la pareja de una víctima del tiroteo ocurrido en la Universidad Estatal de Florida (FSU) en 2017. Según los documentos presentados, la plataforma ChatGPT habría generado información falsa y difamatoria sobre el fallecido, lo que habría causado un daño emocional y reputacional a su familia.

Detalles del caso y acusaciones

El abogado de la parte demandante alega que ChatGPT proporcionó datos incorrectos sobre la víctima, incluyendo afirmaciones no verificadas que afectaron negativamente su memoria. La demanda busca compensaciones económicas por los perjuicios causados y exige a OpenAI implementar medidas para evitar la difusión de información falsa en el futuro.

Este caso se suma a otras controversias en las que se ha cuestionado la precisión de los modelos de inteligencia artificial de OpenAI, especialmente en contextos sensibles como el de las víctimas de violencia.

Investigación de la fiscalía de Florida

La fiscal general de Florida, Ashley Moody, anunció recientemente una investigación sobre ChatGPT por posibles irregularidades en la generación de contenidos. Aunque no está directamente relacionada con este caso judicial, la investigación busca evaluar si la plataforma viola leyes de protección al consumidor o de difamación.

Moody declaró que «la inteligencia artificial debe operar dentro de un marco legal que proteja a los ciudadanos de información engañosa». La fiscalía analizará si OpenAI cumple con las normativas estatales y federales en materia de transparencia y responsabilidad.

Reacciones y contexto legal

Expertos en derecho digital señalan que este tipo de demandas podrían sentar un precedente para futuros casos contra empresas de IA. Eugene Volokh, profesor de la Universidad de California, indicó que «los tribunales tendrán que definir los límites de la responsabilidad de las plataformas de IA en la generación de contenidos».

Mientras tanto, OpenAI no ha emitido un comunicado oficial sobre la demanda, aunque en el pasado ha reconocido la necesidad de mejorar los mecanismos de verificación de sus modelos.

¿Qué implica este caso para el futuro de la IA?

  • Podría establecer un precedente legal sobre la responsabilidad de las empresas de IA en la difusión de información falsa.
  • Refuerza la presión sobre los reguladores para implementar normas más estrictas en el uso de estas tecnologías.
  • Aumenta la exigencia de transparencia en los algoritmos de generación de contenidos.

«La inteligencia artificial no puede operar en un vacío legal. Los casos como este son un recordatorio de que la innovación debe ir acompañada de responsabilidad». — Ashley Moody, fiscal general de Florida

Fuente: Engadget