Las empresas líderes en inteligencia artificial (IA) han convertido las advertencias sobre riesgos catastróficos en una constante. Recientemente, Anthropic, creadora del modelo de lenguaje Claude, publicó un informe que alerta sobre una posible «explosión de inteligencia», un escenario en el que la IA podría replicarse y mejorar sin intervención humana.
Según declaró Jack Clark, cofundador de Anthropic, «mi predicción es que, para finales de 2028, es más probable que improbable que exista un sistema de IA al que puedas pedirle: *‘Crea una versión mejor de ti mismo’* y lo haga de forma completamente autónoma».
Esta no es la primera vez que Anthropic lanza mensajes alarmistas. De hecho, su identidad corporativa está ligada a advertir sobre los peligros de la IA. Sin embargo, no es la única. OpenAI, desarrolladora de ChatGPT, también emite alertas similares mientras acelera su despliegue y compite por dominar lo que muchos consideran la transformación tecnológica más importante de la historia.
Contradicciones en el corazón de la IA
Las empresas que construyen estas tecnologías advierten sobre riesgos existenciales, pero al mismo tiempo aceleran su implementación. Gobiernos de todo el mundo, que integran la IA en sistemas militares, educativos y administrativos, reconocen los desafíos, pero ninguno puede permitirse detener su avance.
Un ejemplo claro de esta dualidad es el ensayo publicado por el CEO de Anthropic, Dario Amodei, titulado «La adolescencia de la tecnología». Inspirado en la novela Contact de Carl Sagan, Amodei describe el momento actual como un punto de inflexión para la humanidad, entre la civilización que conocemos y la que podríamos llegar a ser.
En su análisis, identifica cinco categorías de riesgos existenciales:
- Sistemas de IA autónomos fuera de control.
- Uso malintencionado de la IA para destrucción masiva.
- Captura autoritaria de la IA para control político.
- Disrupción económica y concentración extrema de riqueza.
- Efectos indirectos e impredecibles.
Amodei no solo plantea estos riesgos, sino que también los presenta como una oportunidad de inversión. Diecisiete días después de publicar su ensayo, Anthropic anunció una ronda de financiación de 30.000 millones de dólares, elevando su valoración a 380.000 millones. Y la semana pasada, coincidiendo con la publicación del informe de Axios, el Financial Times reveló que la compañía busca recaudar decenas de miles de millones más este verano, con el objetivo de alcanzar una valoración de 1 billón de dólares, superando así a OpenAI, cuya valoración ronda los 852.000 millones.
¿Alarma genuina o estrategia comercial?
El ensayo de Amodei no es solo una advertencia, sino también un pitch para inversores. La idea de que «esta tecnología es la más transformadora de la historia» sirve tanto como advertencia como argumento de venta. Del mismo modo, la afirmación de que «somos los responsables» funciona como un reclamo moral y una ventaja competitiva. Incluso la preocupación por el avance de China se convierte en un argumento para justificar nuevas rondas de financiación.
«La adolescencia de la tecnología» no es solo un aviso; es también un documento de presentación para inversores. El mensaje es claro: el futuro de la IA es tanto una amenaza como una oportunidad de negocio sin precedentes.
Mientras las empresas de IA siguen recaudando fondos récord y acelerando el desarrollo de sus tecnologías, la pregunta sigue en el aire: ¿están realmente preocupadas por los riesgos que describen o están utilizando el miedo como herramienta para impulsar su crecimiento?