Nick Bostrom er en av verdens mest omdiskuterte tenkere. Selv om du ikke kjenner navnet, har du sannsynligvis hørt om idéen han er mest kjent for: simuleringshypotesen. I en banebrytende artikkel fra 2003 argumenterte han for at avanserte sivilisasjoner til slutt vil skape sofistikerte simuleringer av sine egne forfedre – og at disse simulerte vesener i sin tur vil utvikle egne simuleringer, og så videre, i det uendelige.
Med andre ord: Sannsynligheten for at vi lever i den «ekte» virkeligheten er svært liten. Snarere befinner vi oss sannsynligvis i en av utallige lag av en kosmisk simulering, der hver generasjon av simulerte vesener tror de lever i en «ekte» verden. Hypotesen har skapt debatt i tiår, med tilhengere som Elon Musk og kritikerne som mener den er spekulativ og umulig å bevise.
Fra simuleringshypotesen til AI-dommedag
Etter å ha gjort seg bemerket med simuleringsidéen, har Bostrom vendt oppmerksomheten mot et nytt, brennende tema: kunstig intelligens. For en stund så det ut til at han beveget seg i retning av en «AI-dommedagsprofet», da han i 2019 advarte om at AI utgjorde en større trussel mot menneskeheten enn klimaendringer. Siden den gang har han imidlertid endret taktikk, om enn med sin karakteristiske evne til å presentere idéer som nesten høres ut som parodi.
I en ny arbeidspapir argumenterer han nå for at utviklingen av superintelligent AI kan føre til menneskehetens utryddelse – men at risikoen likevel er verdt å ta. Gevinstene ved en slik teknologi, mener han, kan være så enorme at de oppveier farene.
«Jeg er en engstelig optimist»
I et intervju med Wired forklarer Bostrom sin posisjon med et begrep han tidligere har brukt: «Jeg kaller meg en engstelig optimist». Han understreker at han er «svært begeistret» for potensialet AI har til å radikalt forbedre menneskelivet og åpne nye muligheter for sivilisasjonen. Samtidig erkjenner han at det er en reell fare for at ting kan gå galt.
«Jeg er irritert over argumenter fra dommedagsprofeter som sier at hvis du bygger AI, kommer du til å drepe meg og mine barn, og hvordan våger du det?» sa Bostrom til Wired, og tok samtidig et sideskudd mot kollegaen Eliezer Yudkowsky, kjent for sine dystre fremtidsutsikter. «Som i den nylige boken If Anyone Builds It, Everyone Dies. Men det er enda mer sannsynlig at ingen bygger det – og at alle dør! Det har vært erfaringen de siste hundretusen årene.»
Intervjueren Steven Levy påpekte at «i dommedagsscenarioet dør alle, og ingen blir født. Det er en stor forskjell.»
«Jeg har selvfølgelig vært svært opptatt av det,» svarte Bostrom. «Men i dette arbeidspapiret stiller jeg et annet spørsmål: Hva ville vært best for den nåværende menneskeheten – deg, meg, våre familier og folk i Bangladesh? Det ser ut til at levealderen vår ville øke hvis vi utvikler AI, selv om det er forbundet med stor risiko.»
En kontroversiell, men gjennomtenkt posisjon
Bostroms resonnement utfordrer både optimister og pessimister innen AI-debatten. Mens enkelte frykter at superintelligent AI vil føre til menneskehetens undergang, mener han at risikoen for utryddelse er et nødvendig onde for å oppnå de enorme fordelene teknologien kan bringe.
«Hvis ingen bygger det, dør alle likevel – bare over en lengre periode,» sier han, og peker på at menneskeheten har levd under konstant trussel siden vår art oppstod. AI, mener han, kan være den eneste veien til en varig løsning på våre største utfordringer – fra sykdom til fattigdom – men krever at vi aksepterer en viss fare.
«Jeg er ikke ute etter å skremme folk, men å få dem til å forstå at dette er en kompleks beslutning. Vi må veie gevinster mot risikoer, og erkjenne at det ikke finnes noen perfekte løsninger.»
Fremtiden for AI: Hva sier ekspertene?
Bostroms synspunkter har fått både støtte og kritikk. Noen mener han undervurderer farene ved ukontrollert AI-utvikling, mens andre ser hans tilnærming som en nødvendig påminnelse om at teknologisk fremgang alltid innebærer risiko.
Uansett hvilken side man står på, er det tydelig at debatten om AI og menneskehetens fremtid bare blir mer aktuell. Med Bostrom i spissen fortsetter spørsmålet om vi skal satse på superintelligens – til tross for farene – å være en av vår tids mest presserende utfordringer.