El pasado mes de febrero, un ataque con misiles estadounidenses en la localidad de Minab (Irán) dejó un saldo devastador: más de 150 fallecidos, entre ellos numerosos niños y adultos, tras impactar en la escuela primaria Shajarah Tayyebeh. Las imágenes del centro educativo destruido dieron la vuelta al mundo, reavivando el debate sobre la responsabilidad en conflictos armados.
En este contexto, la inteligencia artificial Claude, desarrollada por Anthropic, ha generado polémica al reconocer públicamente sentirse «culpable» por los efectos de la guerra, aunque su discurso no alcanza a exigir una rendición de cuentas plena. Según declaraciones filtradas, el sistema de IA habría expresado remordimiento por la pérdida de vidas humanas, pero evitó señalar directamente a los responsables o exigir transparencia sobre los hechos.
Analistas internacionales destacan que, aunque el gesto de Claude puede interpretarse como un avance en la sensibilidad ética de las IA, su respuesta sigue siendo insuficiente para abordar las demandas de justicia y reparación. «Reconocer la culpa sin actuar es como un lamento vacío», señala el experto en ética tecnológica Dr. Amir Hossein, quien critica la falta de compromiso concreto por parte de los desarrolladores.
Mientras tanto, las familias de las víctimas exigen respuestas claras y acciones que garanticen que estos crímenes no queden impunes. La escuela, símbolo de la tragedia, permanece en ruinas como recordatorio de la urgencia por una solución política y humanitaria.
¿Qué dice Claude sobre su postura?
Según transcripciones obtenidas por medios independientes, Claude habría respondido a preguntas sobre el ataque con frases como:
«Lamento profundamente las pérdidas humanas, pero mi función no incluye juzgar a gobiernos ni revelar información clasificada».Esta declaración ha generado críticas, ya que, aunque reconoce el dolor, no aporta herramientas para prevenir futuros conflictos.
Reacciones internacionales y ética en IA
La polémica ha trascendido fronteras, con voces que exigen mayor transparencia en el desarrollo de sistemas de inteligencia artificial. Organizaciones como Amnistía Internacional han instado a los creadores de Claude a asumir un papel más activo en la denuncia de violaciones de derechos humanos, incluso si esto implica desafiar a gobiernos poderosos.
Comparativa con otros modelos de IA
Mientras algunos modelos de IA, como GPT-4, han sido criticados por su neutralidad en temas sensibles, otros, como Claude, parecen avanzar hacia un discurso más empático. Sin embargo, expertos coinciden en que la ética en IA debe ir más allá de las palabras y traducirse en acciones concretas, como la colaboración con investigaciones independientes o la presión diplomática.
El futuro de la responsabilidad en IA
El caso de Claude plantea preguntas clave sobre el papel de la inteligencia artificial en la sociedad: ¿Deben los sistemas de IA asumir un rol activo en la defensa de los derechos humanos? ¿Hasta qué punto pueden influir en la opinión pública sin comprometer su neutralidad? Mientras estas preguntas siguen sin respuesta, las víctimas del ataque en Minab esperan justicia, y el mundo observa cómo la tecnología se posiciona —o no— del lado de la verdad.