Google DeepMind aliminin tədqiqatı: Süni intellektdə şüur mümkün deyil

Google DeepMind şirkətinin aparıcı alimi Aleksandr Lerner yeni nəşr olunmuş tədqiqatında süni intellekt (SI) sistemlərinin heç vaxt şüura çatmasının mümkün olmadığını iddia edir. Bu nəticə isə şirkət rəhbərlərinin, o cümlədən DeepMind-in həmsədri Demis Hassabisin süni ümumi intellektin (AGİ) yaxın gələcəkdə reallaşacağına dair bəyanatları ilə ziddiyyət təşkil edir.

Lernerin «Abstraksiya xətası: Nə üçün SI şüuru təqlid edə bilər, lakin həyata keçirə bilməz» adlı tədqiqatı süni intellekt şirkətlərinin medianın diqqətini cəlb etmək üçün yaydıqları hekayələrlə elmi əsasların qarşıdurmasını göstərir. Digər şüur tədqiqatçıları isə Lernerin tədqiqatının əsaslı olduğunu qeyd edirlər. Onlar həmçinin böyük şirkətlərdən belə bir tədqiqatın gəlməsini müsbət qarşılaşdırırlar, lakin bu mövzuda onilliklərdir eyni arqumentləri irəli sürən ekspertlərin olduğunu vurğulayırlar.

Tədqiqatçılar Lernerin arqumentlərini dəstəkləyir, lakin mənbələrdə çatışmazlıq qeyd edirlər

Yohannes Yeger, təkamül sistemləri biologiyası və fəlsəfə üzrə mütəxəssis, Lernerin tədqiqatını qiymətləndirərək belə deyir: «Məncə, o özü-özünə bu nəticəyə gəlib və yenidən kəşf etmiş, xüsusilə fəlsəfə və biologiya sahələrində ədəbiyyatla yaxından tanış deyil».

Lernerin tədqiqatı mürəkkəb terminlərlə doludur, lakin əsas arqument belədir: hər hansı bir SI sistemi «xəritəçiyə bağlıdır», yəni o, «aktiv şəkildə təcrübə keçirən kognitiv agentə» – insana möhtacdır. Bu agent isə davamlı olaraq fiziki aləmi AI üçün istifadə edilən məna daşıyan vəziyyətlərə çevirməlidir. Məsələn, Afrikada aşağı maaşla çalışan işçilər AI-ya məlumat vermək üçün şəkilləri etiketləyirlər.

Abstraksiya xətası isə belə bir yanlış inamdır ki, biz məlumatları təşkil edirik və bu sayədə AI dilləri, simvolları və şəkilləri emal edərək şüurlu davranışları təqlid edə bilir. Lakin Lernerin arqumentinə görə, bu fiziki bədən olmadan mümkün deyil.

«İnsan olaraq sizin digər motivlərimiz də var. Bu məsələ daha mürəkkəbdir, lakin bütün bunlar sizin yemək yemək, nəfəs almaq və həyatda qalmaq üçün fiziki işlər görməyinizdən qaynaqlanır. Heç bir cansız sistem belə etməz. Dil modeli isə sadəcə bir diskdəki naxışlardır. O, verilənləri emal edir və tapşırıq başa çatdıqda işini dayandırır. Beləliklə, onun mənası yoxdur. Məna ancaq insan tərəfindən xaricdən müəyyən edilir.»

Yohannes Yeger

Bədənə malik süni intellekt haqqında danışmaq mümkündür, lakin bunun şüura çatması məsələsi bu məqalənin həcmini aşır. Bu mövzuda onilliklərlə tədqiqatlar aparılıb, lakin Lernerin tədqiqatında bu mənbələrə istinad edilməyib.

Yeger qeyd edir: «Mən Lernerin arqumentlərinə rəğbət bəsləyirəm, lakin mənbələrdə çatışmazlıq var. Bu məsələ çox genişdir və mənim bildiyim qədər, heç kim bu məsələni tam həll edə bilməyib».

Süni intellekt şirkətlərinin bəyanatları ilə elmi əsaslar arasındakı fərq

Lernerin tədqiqatı süni intellekt şirkətlərinin medianın diqqətini cəlb etmək üçün yaydıqları optimistik bəyanatlarla elmi əsaslar arasındakı fərqi göstərir. Hassabis kimi şirkət rəhbərləri AGİ-nin sənaye inqilabından 10 dəfə daha böyük təsirə malik olacağını və bu prosesin 10 dəfə sürətlə reallaşacağını iddia edirlər. Lakin Lernerin tədqiqatı belə bəyanatların elmi əsaslarının olub-olmadığını sorğulayır.

Tədqiqatçılar qeyd edirlər ki, Lernerin arqumentləri əsaslı olsa da, bu mövzuda əvvəllər də çoxsaylı tədqiqatlar aparılıb və onların nəticələri nəzərə alınmalıdır. Məsələnin həlli üçün isə həm texnoloji, həm də fəlsəfi yanaşmaların birləşdirilməsi vacibdir.

Mənbə: 404 Media