Nick Bostrom är en av världens mest inflytelserika filosofer, även om många kanske inte känner till hans namn. År 2003 publicerade han nämligen den uppmärksammade artikeln "Är du en datorsimulering?", där han lade fram en teori som sedan dess har skapat debatt bland forskare och filosofer världen över.

Bostroms argument bygger på antagandet att en tillräckligt avancerad civilisation till slut kommer att skapa sofistikerade simuleringar av sina egna förfäder. Dessa simulerade varelser kommer i sin tur att utveckla sina egna simuleringar, och så vidare i en oändlig loop. Slutsatsen? Risken är stor att vi själva lever i en av dessa simulerade verkligheter, snarare än i den ursprungliga verkligheten.

Debatten har sedan dess blossat upp med jämna mellanrum, där förespråkare som Elon Musk har stött teorin, medan kritiker menar att den är alltför spekulativ. Själv har Bostrom sedan dess riktat in sig på en ny och än mer brännande fråga: artificiell intelligens.

Under en period framstod Bostrom som en AI-doomare. År 2019 varnade han för att AI:s risker för mänskligheten kunde överstiga klimatkrisens hot. Men sedan dess har han ändrat inriktning, även om hans idéer fortfarande väcker både fascination och skepsis.

I en ny rapport argumenterar han nu för att utvecklingen av superintelligent AI mycket väl kan leda till mänsklighetens undergång – men att risken är värd att ta, eftersom fördelarna med en sådan intelligens skulle kunna vara oerhört stora.

"Jag kallar mig själv en orolig optimist," säger Bostrom till Wired:s Steven Levy i en ny intervju. "Jag är mycket entusiastisk över potentialen att radikalt förbättra mänskligt liv och öppna nya möjligheter för vår civilisation. Samtidigt inser jag att det finns en verklig risk att saker kan gå fel."

Han fortsätter: "Jag har blivit irriterad på de som hävdar att om man bygger AI kommer man att döda mig och mina barn. Som i den senaste boken ‘If Anyone Builds It, Everyone Dies’. Men det är ännu mer sannolikt att om ingen bygger AI kommer alla att dö – precis som det har varit under de senaste 100 000 åren."

Levy invänder dock: "I doomer-scenariot dör alla, och ingen kommer att födas. Det är en stor skillnad." Bostrom håller med om att risken för undergång är allvarlig, men menar att hans nya rapport fokuserar på en annan fråga: Vad är bäst för den nu levande mänskligheten?

Han konstaterar att livslängden och livskvaliteten för människor idag sannolikt skulle öka om vi utvecklar AI – även om det innebär stora risker. Men det är just den balansen mellan risk och belöning som gör Bostroms resonemang så provocerande.

Även om många experter varnar för AI:s potentiella faror, fortsätter Bostrom att argumentera för att utvecklingen är nödvändig. Frågan kvarstår dock: Är mänsklighetens undergång ett pris värt att betala för en framtid med superintelligens?

Källa: Futurism