Nick Bostrom, filsuf Swedia yang dikenal luas sebagai pencetus hipotesis simulasi, kembali mencuatkan perdebatan dengan pernyataan kontroversialnya tentang kecerdasan buatan (AI). Pada 2003, saat masih di Universitas Oxford, Bostrom menerbitkan makalah filosofis berjudul "Apakah Anda Hidup dalam Simulasi Komputer?" yang menggemparkan dunia.
Dalam makalah tersebut, ia berargumen bahwa peradaban maju di masa depan kemungkinan besar akan menciptakan simulasi canggih atas leluhur mereka. Simulasi tersebut, menurutnya, akan terus berkembang dengan lapisan-lapisan realitas buatan yang tak terbatas. Akibatnya, manusia modern justru lebih mungkin hidup dalam salah satu simulasi tersebut daripada di dunia nyata. Debat ini pun memicu perdebatan panjang, dengan tokoh-tokoh seperti Elon Musk mendukung gagasan tersebut, sementara banyak ahli lain menentangnya.
Kini, Bostrom telah beralih fokus pada isu yang lebih mendesak: kecerdasan buatan. Pada 2019, ia sempat menyuarakan kekhawatiran bahwa AI berpotensi lebih berbahaya bagi umat manusia dibandingkan perubahan iklim. Namun, pandangannya kini berkembang dengan sudut pandang yang tak kalah kontroversial.
Dalam makalah terbarunya, Bostrom mengungkapkan bahwa perkembangan AI superintelijen dapat menyebabkan kepunahan manusia. Meski begitu, ia tetap meyakini bahwa risiko tersebut layak diambil karena manfaat luar biasa yang bisa dihasilkan. "Saya menyebut diri sebagai seorang optimis khawatir," kata Bostrom dalam wawancara dengan Wired.
"Saya sangat antusias dengan potensi AI untuk meningkatkan kualitas hidup manusia dan membuka kemungkinan baru bagi peradaban. Namun, di sisi lain, ada kemungkinan besar bahwa segala sesuatunya bisa berjalan salah," tambahnya.
Bostrom tak segan mengkritik para doomer AI yang menganggap pembangunan AI akan membahayakan umat manusia. "Saya merasa terusik dengan argumen mereka yang mengatakan bahwa jika Anda membangun AI, Anda akan membunuh saya dan anak-anak saya. Bagaimana berani-beraninya?" ujarnya, sambil menunjuk pada tokoh seperti Eliezer Yudkowsky, penulis buku "If Anyone Builds It, Everyone Dies".
Menurut Bostrom, risiko terbesar justru terjadi jika manusia tidak mengembangkan AI. "Selama ratusan ribu tahun terakhir, manusia selalu menghadapi risiko kepunahan. Jika kita tidak maju, risiko itu tetap ada," tegasnya. Ia juga menekankan bahwa meskipun dalam skenario terburuk semua manusia punah, setidaknya generasi mendatang tidak akan mengalami penderitaan yang sama.
Wawancara tersebut memunculkan perdebatan lebih lanjut. Steven Levy dari Wired menanggapi, "Dalam skenario doomer, semua orang mati dan tidak ada lagi kelahiran manusia. Itu berbeda." Bostrom pun membalas, "Saya memang sangat prihatin dengan hal itu. Namun, dalam makalah ini, saya melihat pertanyaan yang berbeda: Apa yang terbaik bagi manusia saat ini, termasuk Anda, keluarga, dan masyarakat di Bangladesh?"