Een plan dat medewerkers deed huiveren
Medewerkers van OpenAI waren diep geschokt toen de leiding een ‘waanzinnig’ plan presenteerde om de eigen winst te vergroten door wereldregeringen tegen elkaar uit te spelen. Dit onthult een nieuw onderzoek van The New Yorker naar CEO Sam Altman, dat een patroon van manipulatie en leugens blootlegt. Sommige insiders vergeleken zijn gedrag zelfs met dat van een ‘sociopaat’.
Het ‘landenplan’ van Greg Brockman
Greg Brockman, de rechterhand van Altman, speelde een sleutelrol in dit controversiële voorstel. In 2017 bedacht hij intern het zogenaamde ‘landenplan’. Toen een ethisch adviseur suggereerde om een internationale samenwerkingsorganisatie op te richten om een nucleaire wapenwedloop in AI-veiligheid te voorkomen, reageerde Brockman met een radicaal alternatief: landen als China en Rusland tegen elkaar uitspelen. Bijvoorbeeld door een biedingsstrijd voor AI-technologie te starten. Volgens ethisch adviseur Page Hedley luidde Brockmans logica: ‘Het werkte voor nucleaire wapens, waarom niet voor AI?’
Hedley herinnerde zich dat Brockman zei: ‘De aanname, die ze niet ontkenden, was: “We praten over de meest verwoestende technologie ooit uitgevonden — wat als we het aan Poetin verkopen?”’
Jack Clark, destijds directeur beleid bij OpenAI, beschreef het plan als een ‘gevangenendilemma’: ‘Alle landen moeten ons financieren, en wie dat niet doet, loopt gevaar.’
Een junior onderzoeker die bij de bespreking aanwezig was, noemde het plan later ‘volkomen krankzinnig’.
Het plan sneuvelde door dreigende ontslagen
Na maanden van interne discussie werd het plan uiteindelijk geschrapt, nadat enkele medewerkers dreigden met ontslag. Hedley merkte op dat medewerkersprotest bij Altman altijd zwaarder woog dan de morele vraag: ‘Is dit plan gevaarlijk omdat het een oorlog tussen grootmachten kan veroorzaken?’
Altman manipuleerde ook de Amerikaanse overheid
Naast het landenplan probeerde Altman ook de Amerikaanse overheid te beïnvloeden. Vanaf 2017 vertelde hij herhaaldelijk aan Amerikaanse inlichtingendiensten dat China een ‘AGI Manhattan Project’ zou hebben gelanceerd — een verwijzing naar kunstmatige algemene intelligentie. Volgens Altman had OpenAI, en daarmee de VS, miljarden dollars aan overheidsgeld nodig om gelijke tred te houden. Toen ambtenaren om bronnen vroegen, gaf Altman vaag antwoord: ‘Ik heb dingen gehoord.’
Een ambtenaar die de claims onderzocht, concludeerde dat Altman alles had verzonnen: ‘Het werd alleen gebruikt als verkoopargument.’
Het onderzoek beschrijft hoe Altman zichzelf presenteerde als een soort Oppenheimer. Waar de wetenschapper achter de atoombom ‘meeslepende verhalen over het redden van de wereld van de nazi’s’ gebruikte om collega’s te overtuigen, speelde Altman in op angst voor geopolitieke gevolgen van zijn technologie.
Eerdere kritiek op Altmans leiderschap
Eerder onderzoek van Futurism toonde aan dat collega’s van Altman hem beschreven als iemand die nauwelijks kan programmeren en fundamentele concepten van machine learning niet begrijpt.