O homem por trás da hipótese da simulação e seu novo alerta sobre IA
Mesmo que você não conheça o nome Nick Bostrom, provavelmente já ouviu falar da teoria pela qual ele é mais famoso. Em 2003, enquanto atuava na Universidade de Oxford, o filósofo publicou um artigo filosófico influente intitulado "Você Está Vivendo em uma Simulação de Computador?"
Sua argumentação, de forma simplificada, sugere que civilizações avançadas eventualmente criarão simulações sofisticadas de seus ancestrais — e, com o tempo, essas simulações desenvolverão suas próprias simulações, em um ciclo infinito. Bostrom conclui que, estatisticamente, é improvável que a humanidade esteja na realidade base. Em vez disso, estaríamos em algum nível de uma realidade simulada, semelhante a um jogo cósmico de Escher.
Essa teoria gerou décadas de debates. Enquanto nomes como Elon Musk apoiam a ideia, muitos especialistas a contestam. Bostrom, entretanto, voltou sua atenção para outro tema polêmico: a inteligência artificial.
De alertas sobre IA a uma nova perspectiva
Em 2019, Bostrom emitiu um aviso grave, classificando os riscos da IA como maiores do que os da mudança climática. Desde então, suas posições têm evoluído, embora mantenha sua característica de propor ideias tão ousadas que beiram o absurdo.
Em um novo artigo de trabalho, ele argumenta que o desenvolvimento de uma IA superinteligente poderia resultar na extinção da humanidade — mas que o risco vale a pena diante dos benefícios potenciais. Em entrevista à Wired, Bostrom se define como um "otimista apreensivo":
"Sou muito empolgado com o potencial de melhorar radicalmente a vida humana e desbloquear possibilidades para nossa civilização. Isso é consistente com a real possibilidade de as coisas darem errado."
Ele critica os chamados "doomers" (céticos extremos em relação à IA), como Eliezer Yudkowsky, autor do livro "Se Alguém Construir, Todos Morrem":
"Fico irritado com argumentos que dizem que, ao desenvolver IA, você vai matar a mim e aos meus filhos. Como se atrevem? Mas a pergunta que faço é: e se ninguém desenvolver? Todos morrerão de qualquer forma. Essa tem sido a realidade nos últimos cem mil anos."
O entrevistador, Steven Levy, rebateu: "No cenário doomer, todos morrem e não há mais nascimentos. Há uma grande diferença."
Bostrom respondeu:
"Claro que me preocupo com isso. Mas neste artigo, estou analisando uma questão diferente: o que seria melhor para a população humana atual, como você, eu, nossas famílias e as pessoas em Bangladesh? Nossa expectativa de vida aumentaria com o desenvolvimento da IA, mesmo com riscos."
Essas declarações ganham ainda mais peso quando consideramos que Bostrom acredita que provavelmente não estamos na realidade base, mas em uma simulação.
O dilema entre progresso e risco existencial
Para Bostrom, o desenvolvimento de uma IA superinteligente poderia trazer avanços inimagináveis, como a cura de doenças, a eliminação da pobreza e a expansão da consciência humana. No entanto, ele não nega os perigos: uma IA descontrolada poderia representar uma ameaça existencial.
O filósofo argumenta que, embora o risco seja real, a humanidade não pode se dar ao luxo de ignorar o potencial da IA. Em suas palavras, "se ninguém construir, todos morrerão de qualquer forma".
O debate continua aberto, dividindo especialistas entre otimistas tecnológicos e céticos que alertam para os perigos de uma corrida desenfreada pelo desenvolvimento de inteligências artificiais cada vez mais poderosas.