Nick Bostrom, professor ved Oxford og forfatter til den banebrydende artikel "Lever du i en computersimulation?" fra 2003, har i årtier været en central figur i debatten om vores virkeligheds natur. Hans hypotese om, at avancerede civilisationer sandsynligvis lever i en computersimulation, har vakt opsigt og skabt diskussion blandt filosoffer og forskere verden over.

Bostrom argumenterer for, at en tilstrækkeligt avanceret civilisation til sidst vil skabe sofistikerede simulationer af sine forfædre. Disse simulationer vil i sig selv udvikle nye simulationer, hvilket skaber et uendeligt lag af virtuelle realiteter. Ifølge ham er det derfor statistisk usandsynligt, at vi lever i den oprindelige, basale virkelighed. I stedet befinder vi os sandsynligvis i et af lagene i en kosmisk videospil-lignende struktur.

Fra simulationshypotesen til AI-frygt

I de senere år har Bostrom vendt sin opmærksomhed mod kunstig intelligens. Tidligere har han været en markant stemme i debatten om AI’s risici, blandt andet med en advarsel i 2019 om, at AI udgjorde en større trussel mod menneskeheden end klimaforandringer. Selvom han tidligere blev set som en såkaldt "AI-doomist", har han nu skiftet fokus til en mere nuanceret tilgang.

I en ny arbejdspapir argumenterer Bostrom for, at udviklingen af superintelligent AI kan føre til menneskets udryddelse. Men han mener, at risikoen er det værd, fordi de potentielle gevinster ved superintelligens er så store. "Jeg kalder mig selv en bekymret optimist," udtalte Bostrom til Wired i et nyligt interview. "Jeg er begejstret for potentialet i at radikalt forbedre menneskelivet og åbne nye muligheder for vores civilisation. Det er dog samtidig forbundet med en reel risiko for, at tingene går galt."

Kritik af AI-doomisterne

Bostrom tager afstand fra de såkaldte AI-doomister, herunder Eliezer Yudkowsky, som hævder, at udviklingen af AI vil føre til menneskehedens undergang. "Jeg bliver irriteret over argumenter som dem i bogen Hvis nogen bygger det, dør alle," siger Bostrom. "Men hvad med den modsatte situation? Hvis ingen bygger det, dør alle alligevel – det har været erfaringen i de seneste 100.000 år."

Levy fra Wired modsiger ham med påstanden om, at "i doomer-scenariet dør alle, og der bliver ikke født flere mennesker. Det er en stor forskel." Bostrom svarer: "Jeg er naturligvis meget bekymret for det. Men i dette papir stiller jeg et andet spørgsmål: Hvad er bedst for den nuværende menneskehed – dig, mig, vores familier og folkene i Bangladesh? Det ser ud til, at vores forventede levetid ville stige, selvom det er forbundet med stor risiko."

En kontroversiel, men tankevækkende tilgang

Bostroms argumenter er kontroversielle og udfordrer den almindelige opfattelse af AI’s risici. Mens mange frygter, at superintelligent AI kan blive ukontrollabel og farlig, mener Bostrom, at risikoen for udryddelse er en nødvendighed for at opnå de enorme fordele, som AI kan bringe. Hans synspunkter fortsætter med at inspirere og provokere debatter om fremtidens teknologi og menneskehedens skæbne.

Kilde: Futurism