A OpenAI, empresa por trás do ChatGPT, enfrentou forte resistência interna após seus líderes, incluindo o CEO Sam Altman, proporem um plano considerado 'insano' para enriquecer a companhia: manipular governos de grandes potências como China e Rússia em uma disputa tecnológica.
Essa revelação faz parte de uma investigação detalhada publicada pelo The New Yorker, que expõe um padrão alarmante de comportamento de Altman, descrito por alguns funcionários como semelhante ao de um 'sociópata'. A reportagem destaca ainda a participação de Greg Brockman, segundo na hierarquia da empresa.
O 'plano dos países' e a estratégia de divisão
Em 2017, segundo a investigação, Brockman teria criado internamente o chamado 'plano dos países', uma estratégia geopolítica que visava explorar a rivalidade entre nações para obter vantagens financeiras e tecnológicas. A ideia, rejeitada por assessores éticos, era iniciar uma 'guerra de lances' entre potências como China e Rússia pela tecnologia da OpenAI.
Page Hedley, ex-assessora de ética da empresa, relatou ao The New Yorker que a lógica de Brockman parecia ser: 'Se funcionou com armas nucleares, por que não com IA?'
"A premissa, que eles não contestaram, era: 'Estamos falando da tecnologia potencialmente mais destrutiva já inventada — e se vendermos para o Putin?'"
— Page Hedley, ex-assessora de ética da OpenAI
Jack Clark, então diretor de políticas da empresa, descreveu a estratégia como um 'dilema do prisioneiro', onde todas as nações precisariam financiar a OpenAI para evitar riscos geopolíticos.
Um pesquisador júnior presente na reunião onde o plano foi discutido afirmou ter pensado que a ideia era 'completamente louca'. O plano foi abandonado meses depois, após funcionários ameaçarem deixar a empresa.
Manipulação de governos e estratégias questionáveis
A investigação também revela que Altman teria tentado manipular o governo dos EUA. Desde 2017, ele repetidamente afirmava a oficiais de inteligência americanas que a China havia lançado um 'Projeto Manhattan de IA' — uma referência à corrida nuclear da Segunda Guerra Mundial. Segundo Altman, os EUA precisariam de bilhões em financiamento governamental para não ficar para trás.
Quando questionado sobre a fonte dessas informações, Altman respondeu de forma vaga: 'Eu ouvi coisas'. Um oficial que investigou as alegações concluiu que tudo não passava de um 'argumento de venda'.
A reportagem compara Altman a J. Robert Oppenheimer, físico responsável pela bomba atômica, que usava apelos emocionais para convencer cientistas a trabalharem no projeto. No entanto, enquanto Oppenheimer buscava salvar o mundo do nazismo, Altman teria explorado 'medos geopolíticos' para promover sua agenda.
Reações internas e cultura corporativa
Hedley, que deixou a OpenAI em 2019, afirmou que as objeções éticas dos funcionários tinham 'menos peso' nas decisões de Altman do que a busca por vantagens estratégicas. 'Para ele, o risco de uma guerra entre grandes potências não era suficiente para abandonar o plano', declarou.
A cultura interna da OpenAI, segundo a investigação, também é marcada por comportamentos questionáveis. Funcionários teriam relatado que Altman 'mal sabe programar' e 'não compreende conceitos básicos de machine learning', dependendo fortemente de sua equipe técnica para tomar decisões.