Enligt en omfattande granskning av The New Yorker har OpenAI:s ledning, inklusive VD Sam Altman, föreslagit en plan som medarbetare beskrivit som fullständigt vansinnig – och jämfört den med skurkar ur en tecknad serie. Syftet var att utnyttja geopolitiska spänningar för att stärka företagets position och finansiering.
Granskningen avslöjar en mönster av manipulation och bristande transparens från ledningens sida, där medarbetare till och med jämfört Altmans agerande med en sociopat.
Den hemliga planen: Att spela ut länder mot varandra
En central figur i planen var OpenAI:s tidigare andreman, Greg Brockman. Redan 2017 skissade han på en strategi som internt kallades för "ländernas plan". Istället för att följa etiska rådgivares förslag om att skapa ett internationellt samarbetsorgan för AI-säkerhet för att undvika en kapprustning liknande den kring kärnvapen, föreslog Brockman att man aktivt skulle spela ut stormakter som Kina och Ryssland mot varandra. Bland annat genom att starta en budgivning om företagets teknik.
En tidigare etisk rådgivare, Page Hedley, beskrev hur Brockman resonerade:
"Det fungerade för kärnvapen, varför inte för AI?"
Hedley förklarade för The New Yorker att premissen var att man diskuterade den mest destruktiva teknologin som någonsin uppfunnits – och frågan var: "Vad händer om vi säljer den till Putin?"
OpenAI:s tidigare policychef Jack Clark liknade planen vid ett fångarnas dilemma, där alla nationer skulle tvingas att finansiera företaget för att undvika risker. En junior forskare som deltog i mötet mindes att det kändes "helt jävla galet".
Planen lades slutligen ner efter några månader, då flera medarbetare hotade med att säga upp sig.
Altmans manipulation av amerikanska myndigheter
Sam Altman försökte också påverka amerikanska beslutsfattare genom att påstå att Kina hade inlett en "AGI Manhattan-projekt" – en referens till utvecklingen av artificiell generell intelligens (AGI). Han hävdade att OpenAI, och därmed USA, behövde miljardbelopp i statligt stöd för att kunna konkurrera. När myndigheterna efterfrågade källor svarade Altman vaga: "Jag har hört saker."
En tjänsteman som undersökte påståendena drog slutsatsen att Altman hade fabricerat uppgifterna:
"Det användes bara som en försäljningspitch."
Enligt granskningen framställde sig Altman som en modern Oppenheimer – men medan den historiska fysikern använde sig av övertygande argument om att rädda världen från nazismen för att motivera sina forskare, utnyttjade Altman istället rädslor för geopolitiska konsekvenser av AI-tekniken.
Medarbetare: Altman kan knappt programmera
I en tidigare granskning av Futurism framkom det att flera medarbetare på OpenAI ifrågasätter Altmans tekniska kompetens. De menar att han knappt kan koda och har en bristande förståelse för grundläggande maskininlärningskoncept.