Nick Bostrom, filósofo sueco y director del Instituto Futuro de la Humanidad de Oxford, es una figura que despierta tanto fascinación como controversia. Aunque su nombre no sea tan conocido como el de otros pensadores contemporáneos, su teoría de la simulación —planteada en un influyente artículo de 2003— ha dejado una huella imborrable en la filosofía y la cultura popular.
En su trabajo titulado "¿Vives en una simulación por ordenador?", Bostrom argumentaba que civilizaciones avanzadas podrían crear simulaciones tan sofisticadas de sus ancestros que, con el tiempo, esas entidades simuladas desarrollarían sus propias simulaciones, generando capas infinitas de realidades artificiales. Según esta lógica, la probabilidad de que vivamos en la realidad base —la original— sería extremadamente baja. En cambio, estaríamos en una de esas capas de un universo que recuerda a un juego de realidad virtual cósmico.
La teoría, que ha generado décadas de debate, ha tenido defensores de la talla de Elon Musk, pero también detractores que la consideran una especulación sin fundamento. Sin embargo, Bostrom ha dirigido su atención hacia un nuevo y urgente tema: la inteligencia artificial.
De la simulación a la IA: el giro hacia el 'fretful optimist'
En los últimos años, Bostrom ha pasado de ser un teórico de la simulación a un analista de los riesgos existenciales vinculados a la IA. En 2019, su advertencia sobre los peligros de la inteligencia artificial —que consideraba más amenazante que el cambio climático— lo situó en el centro del debate sobre el futuro de la humanidad.
Pero su postura ha evolucionado. En un reciente documento de trabajo, el filósofo plantea una idea aún más controvertida: el desarrollo de una superinteligencia artificial podría llevar a la extinción de la humanidad. Sin embargo, argumenta que, pese al riesgo, vale la pena asumirlo, ya que los beneficios potenciales de una IA avanzada serían inimaginables.
Bostrom se define a sí mismo como un "optimista preocupado", un término que ya había utilizado antes para describir su visión dual: entusiasmo por el progreso y conciencia de los peligros que conlleva. En una entrevista con Wired, declaró:
«Estoy muy entusiasmado con el potencial de mejorar radicalmente la vida humana y desbloquear posibilidades para nuestra civilización. Eso es compatible con la posibilidad real de que las cosas salgan mal».
Sus declaraciones han generado polémica, especialmente al criticar a los llamados "doomers" —aquellos que advierten que la creación de una IA avanzada llevaría a la destrucción de la humanidad—. Bostrom cuestiona este enfoque catastrofista:
«Me molesta que algunos argumenten que, si se desarrolla la IA, se matará a mí y a mis hijos. ¿Cómo se atreven?». Su crítica se dirige, entre otros, a Eliezer Yudkowsky, autor del libro Si alguien la construye, todos moriremos. «Pero lo más probable es que, si nadie la construye, todos moriremos igualmente. Esa ha sido la experiencia de los últimos cientos de miles de años».
Steven Levy, periodista de Wired, le respondió que, en el escenario catastrofista, no habría futuro para nadie, una diferencia crucial. Bostrom replicó:
«Obviamente, me preocupa ese escenario. Pero en este documento, planteo una pregunta diferente: ¿qué sería mejor para la población humana actual, como tú y yo, nuestras familias y la gente en Bangladesh? Parece que nuestra esperanza de vida aumentaría si desarrollamos una IA, incluso si el riesgo es considerable».
Estas declaraciones, que pueden parecer paradójicas, reflejan la complejidad de su pensamiento. Para Bostrom, el riesgo de extinción no es un argumento en contra del progreso, sino una calculada apuesta por un futuro donde la humanidad podría trascender sus límites actuales.
¿Por qué asumir el riesgo?
El argumento central de Bostrom se basa en la idea de que una superinteligencia artificial podría resolver problemas globales como el hambre, las enfermedades o el envejecimiento, elevando la calidad de vida a niveles sin precedentes. Sin embargo, también reconoce que el proceso de desarrollo de tal tecnología podría descontrolarse, llevando a consecuencias impredecibles.
En su documento, el filósofo explora la posibilidad de que, aunque la IA avanzada pueda representar una amenaza existencial, la alternativa —no desarrollarla— también conlleve riesgos. Según su razonamiento, la humanidad ha enfrentado durante milenios amenazas como guerras, pandemias o desastres naturales, y la falta de innovación podría perpetuar estas vulnerabilidades.
Bostrom no niega los peligros. De hecho, ha sido un crítico vocal de la falta de regulación en el desarrollo de la IA. Sin embargo, su enfoque sugiere que el verdadero riesgo no es la tecnología en sí, sino la incapacidad de gestionarla de manera responsable.
El debate sigue abierto
Las ideas de Bostrom, aunque controvertidas, han reavivado el debate sobre el futuro de la humanidad en la era de la IA. Mientras algunos expertos abogan por una moratoria en el desarrollo de sistemas avanzados, otros, como el propio Bostrom, insisten en que el progreso no puede —ni debe— detenerse.
Lo cierto es que, independientemente de la postura que se adopte, el trabajo de Bostrom obliga a replantearse preguntas fundamentales: ¿Estamos preparados para asumir los riesgos de la superinteligencia? ¿O el precio de la innovación es demasiado alto?
Una cosa es clara: el filósofo sueco no tiene intención de quedarse en silencio. Su voz, aunque incómoda para algunos, sigue siendo un referente en la discusión sobre el futuro de la humanidad.