Un hombre de Utah sufre las consecuencias de las "alucinaciones" de Google AI
Un nuevo caso judicial revela cómo la inteligencia artificial de Google puede generar falsas acusaciones con consecuencias devastadoras. Según una demanda presentada en un tribunal federal de EE.UU., un hombre de Utah, identificado como Matt Murray, ha sido víctima de lo que su abogado denomina "alucinaciones" de la herramienta Google AI Overview.
La demanda, presentada por Murray v. Alphabet, Inc., alega que la IA de Google generó acusaciones falsas de delitos sexuales contra Murray, afirmaciones que no aparecían en ninguna fuente externa, sino que fueron creadas directamente por el algoritmo.
Consecuencias devastadoras para la vida personal y profesional
Las falsas acusaciones han tenido un impacto brutal en la vida de Murray. Según la demanda, desde que las alegaciones aparecieron en los resultados de Google AI Overview:
- Ha recibido mensajes hostiles, llamadas telefónicas y confrontaciones en persona exigiendo explicaciones sobre los supuestos hechos.
- Sus familiares y amigos cercanos han cuestionado su carácter basándose únicamente en la información difundida por la IA.
- Su relación de pareja se ha visto afectada cuando la familia de su pareja le confrontó con las acusaciones.
- En lugares públicos, desconocidos se han acercado a él en tiendas y gasolineras para cuestionarle o insultarle.
- Personas con las que anteriormente interactuaba sin problemas han evitado su contacto o cortado la relación.
- Incluso empleados que limpiaban su casa dejaron de prestar el servicio tras enterarse de las acusaciones, difundiendo el falso estigma en su comunidad.
Murray intentó explicar repetidamente que las acusaciones eran falsas, pero muchos se negaron a escucharle o desconfiaron de su versión, especialmente tras ver los resultados de Google.
Impacto económico y reputacional
Las consecuencias han sido catastróficas:
- Ha perdido clientes y contratos.
- Se enfrenta a una situación financiera crítica con riesgo de quiebra.
- Su reputación ha quedado irreparablemente dañada en su entorno social y profesional.
La demanda subraya que el problema no es un caso de "basura entra, basura sale" (donde la IA repite información errónea existente), sino que el algoritmo de Google generó las acusaciones por sí mismo, sin base en fuentes reales.
"Las afirmaciones aparecieron únicamente en el resumen de IA de Google, lo que demuestra que el algoritmo no solo repitió información falsa, sino que la creó de la nada", señala el documento judicial.
¿Qué dice Google sobre estos casos?
Google ha reconocido en ocasiones anteriores que sus sistemas de IA pueden generar información incorrecta o engañosa, conocida como "alucinaciones". Sin embargo, la empresa no ha emitido declaraciones específicas sobre este caso en concreto.
Este no es el primer incidente de este tipo. En los últimos meses, han surgido múltiples demandas similares en EE.UU. por daños causados por errores de IA en herramientas como Google AI Overview o Microsoft Copilot. Expertos en tecnología y derecho advierten sobre los riesgos de confiar ciegamente en los resultados generados por inteligencia artificial sin verificación humana.
Un precedente legal que podría cambiar las reglas
Este caso podría sentar un precedente importante en la regulación de la inteligencia artificial y la responsabilidad legal por los daños causados por sus errores. Si el tribunal falla a favor de Murray, podría abrir la puerta a más demandas contra empresas tecnológicas por los perjuicios derivados de las "alucinaciones" de sus sistemas de IA.
Mientras tanto, Murray lucha por recuperar su vida, su reputación y su estabilidad económica en un entorno donde, para muchos, su nombre ya está asociado a un delito que nunca cometió.