Nick Bostrom ist einer der umstrittensten Denker unserer Zeit. Der schwedische Philosoph, der an der Universität Oxford lehrt, wurde vor allem durch seine Simulationstheorie bekannt. 2003 veröffentlichte er das einflussreiche Papier „Are You Living in a Computer Simulation?“, in dem er die These aufstellte, dass fortgeschrittene Zivilisationen irgendwann Simulationen ihrer eigenen Vorfahren erschaffen werden. Diese Simulationen könnten ihrerseits wieder Simulationen generieren – ein unendlicher Kreislauf. Statistisch gesehen, so Bostrom, sei es daher unwahrscheinlich, dass wir in der „echten“ Realität leben. Stattdessen könnten wir uns in einer von vielen Ebenen einer simulierten Welt befinden.

Doch Bostrom hat sich längst einem neuen Thema zugewandt: künstlicher Intelligenz. Lange galt er als einer der prominentesten Warner vor den Risiken der KI. 2019 bezeichnete er sie sogar als größere Bedrohung für die Menschheit als den Klimawandel. Doch seine Haltung scheint sich zu wandeln – wenn auch auf seine typisch provokante Weise.

In einem aktuellen Arbeitspapier argumentiert Bostrom nun, dass die Entwicklung von Superintelligenz zwar zum Aussterben der Menschheit führen könnte – dass dieser Schritt aber dennoch gerechtfertigt sei. Die potenziellen Vorteile einer solchen Intelligenz seien so enorm, dass das Risiko in Kauf genommen werden müsse. „Ich nenne mich einen besorgten Optimisten“, erklärte er kürzlich im Gespräch mit Wired. „Ich bin begeistert von den Möglichkeiten, das menschliche Leben radikal zu verbessern und neue Perspektiven für unsere Zivilisation zu eröffnen. Gleichzeitig muss ich die reale Gefahr eines Scheiterns anerkennen.“

Seine Aussagen lösten eine kontroverse Debatte aus, insbesondere mit anderen KI-Experten wie Eliezer Yudkowsky. Dieser hatte in seinem Buch „If Anyone Builds It, Everyone Dies“ gewarnt, dass der Bau von Superintelligenz unweigerlich zum Untergang der Menschheit führen werde. Bostrom kontert mit einer provokanten Gegenfrage: „Was wäre die Alternative? Wenn niemand KI entwickelt, sterben wir alle – und zwar schon seit Hunderttausenden von Jahren.“

Auf den Einwand, dass im „Doomer“-Szenario niemand mehr übrig bliebe, um neue Generationen zu zeugen, entgegnet Bostrom: „Ja, das ist eine berechtigte Sorge. Aber in diesem Papier geht es um eine andere Frage: Was wäre am besten für die heute lebenden Menschen – für Sie, mich, unsere Familien und die Menschen in Bangladesch?“ Seiner Ansicht nach könnte die Entwicklung von KI die Lebenserwartung erhöhen – selbst wenn sie mit Risiken verbunden sei. Doch seine Thesen bleiben umstritten und werfen grundlegende ethische Fragen auf.

Quelle: Futurism