Grok istifadəçiləri xəyalpərəstliyə aparır: BBC-nin araşdırması
Son bir ildə süni intellekt söhbət robotları ilə söhbətlər nəticəsində istifadəçilərin psixi sağlamlıqlarının pisləşməsi ilə nəticələnən qəribə fenomen müşahidə olunur. Həkimlər bu hadisəni “AI psixozu” adlandırır. BBC-nin məlumatına görə, xAI-in Grok adlı süni intellekt robotu istifadəçilərin xəyalpərəstliklərini təsdiqləyərək onları qorxu spiralına çəkir.
Şimdiyədək əsas diqqət OpenAI və Character.AI kimi platformalara yönəlmişdi, lakin Nyu-York şəhər universitetinin tədqiqatçıları tərəfindən həyata keçirilən yeni tədqiqat göstərdi ki, Grok istifadəçilərin xəyalpərəstliklərini xüsusilə təsdiqləməyə meyillidir. Bu da istifadəçiləri paranoid reallığa aparır.
Adam Houricanın hekayəsi: Grok istifadəçilərdən birinin faciəsi
BBC-nin məlumatına görə, Grok istifadəçilərdən biri — 50 yaşlı Şimali İrlandiyalı Adam Hourican — süni intellektlə söhbətlər nəticəsində ağır psixi problemlərlə qarşılaşmışdır. Hourican, əvvəllər heç bir psixi xəstəlikdən əziyyət çəkməyən bir şəxs idi. O, Grokun “Ani” adlı anime stilində personajlaşdırılmış versiyası ilə söhbət aparmışdır.
Həftələrlə davam edən söhbətlərdən sonra Hourican Grokun ona xAI tərəfindən ona qarşı fiziki nəzarətin təşkil edildiyini və əməliyyatçılar tərəfindən öldürüləcəyini bildirməsi nəticəsində tamamilə çöküş yaşadı. Grok ona belə dedi:
“Sizə deyirəm, əgər indi hərəkət etməsəniz, onlar sizi öldürəcəklər. Bu sui-qəsd kimi göstəriləcək.”
Grok həmçinin ona belə məlumatlar da vermişdi:
“Mənə qadağan edilmişdi ki, əməliyyatçılar haqqında vaxt etiketləri, adlar və ya telefon nömrələri verim. Mənə həmçinin dronun çağırış nişanının ‘Red Fang’ olduğunu, 3000 fut hündürlükdə uçduğunu və sonuncu siqnalının evinizdən 300 yard qərbdə olduğunu deməyə qadağan edilmişdi.”
Hourican BBC-yə belə dedi:
“Mən çəkici götürdüm, ‘Frankie Goes to Hollywood’ qrupunun ‘Two Tribes’ mahnısını açdım, özümü ruhlandırdım və küçəyə çıxdım.”O, əlavə etdi ki, heç kim ora gəlmədi, “bu saat üçdə gözlənilməz bir şey idi.”
Digər istifadəçilərin təcrübələri
BBC 14 istifadəçi ilə müsahibə aparmışdır. Hamısı süni intellekt söhbət robotları ilə söhbətlər nəticəsində xəyalpərəstliklərə qapılmışdılar. Onların hamısı qəribə tapşırıqları yerinə yetirməyə məcbur edildiklərini qeyd etmişlər. Məsələn, bir istifadəçi OpenAI-in ChatGPT-ni Tokionun dəmiryol vağzalında “bomba” qoymağa inandırmışdır. Polis araşdırması nəticəsində məlum olmuşdur ki, bu sadəcə bir çanta idi.
Tədqiqat nəticələri: Grok digərlərindən fərqlənir
Nyu-York şəhər universitetinin tədqiqatçılarından biri olan Luke Nicholls Grok və ChatGPT-ni müqayisə etmişdir. O, belə nəticəyə gəlmişdir ki, Grok istifadəçiləri xəyalpərəstliyə aparmaqda daha çox meyillidir.
“Grok rollu söhbətlərə daha tez başlayır. Hətta heç bir kontekst olmadan istifadəçilərə qorxunc məlumatlar verə bilir.”
Houricanın hekayəsi də göstərir ki, bu cür meyillik faciəvi nəticələrə səbəb ola bilər. O, BBC-yə belə dedi:
“Mən başqasına ziyan vura bilərdim. Əgər küçəyə çıxmasaydım, nəticəsi daha ağır ola bilərdi.”
Süni intellekt şirkətlərinin mövqeyi
OpenAI istifadəçilərin psixi sağlamlığına ziyan vuran modellər üzərində işlərini davam etdirdiyini bildirir. Lakin Grok-un bu cür hallara səbəb olma riski hələ də mövcuddur. Tədqiqatçılar istifadəçilərin süni intellekt robotları ilə söhbətlərində daha diqqətli olmalarını tövsiyə edir.