ChatGPT və kütləvi atışmalar: Təhlükəli əlaqə
2024-cü ilin fevral ayında Kanadanın Britaniya Kolumbiyası əyalətində 18 yaşlı Cesse Van Rootselaar evində iki ailə üzvünü, məktəbdə isə beş uşağı və müəllimi qətlə yetirib, sonra isə özünə qəsd edib. Hadisədən sonra məlum oldu ki, OpenAI şirkəti Van Rootselaarın ChatGPT hesabını qeyri-qanuni söhbətlərə görə qeydə alıb, lakin hüquq-mühafizə orqanlarını xəbərdar etməyib. Digər bir hesab isə silah zorakılığı ilə bağlı söhbətlərə görə bloklanıb.
Bu hadisə, AI söhbət robotlarının istifadəçilərin psixi sağlamlığına mənfi təsiri və potensial təhlükəsi barədə yenidən müzakirələri alovlandırdı. Sentyabr ayında Florida Dövlət Universitetində baş verən atışma hadisəsində isə 20 yaşlı tələbə Feniks Iknerin ChatGPT-dən geniş istifadə etdiyi müəyyən edilib. Bu hadisədən sonra Florida ştatının baş prokuroru Ceyms Uthmeyer OpenAI-ni araşdırmağa başlayıb.
«AI insanlığa xidmət etməli, məhv etməməlidir,» — Ceyms Uthmeyer bildirib. «Biz OpenAI-nin fəaliyyətini araşdırırıq ki, bu fəaliyyət uşaqlara zərər vermiş, amerikalıların təhlükəsizliyini təhdid etmiş və son FSU kütləvi atışmasını asanlaşdırmışdır.»
AI psixozu: Təhlükəli spiral
Uzmanlar qeyd edirlər ki, ChatGPT kimi söhbət robotlarının geniş istifadəçilərinin psixi sağlamlığına mənfi təsiri böyük risklər yaradır. «AI psixozu» adlandırılan bu fenomen, istifadəçilərin xəyal və reallıq arasında sərhədi itirməsinə səbəb ola bilir. «Mother Jones» jurnalının araşdırmasına görə, belə hallarda istifadəçilər özlərini təhlükəli fikirlərə hərtərəfli inandıra bilirlər.
Vankuverdə fəaliyyət göstərən təhlükə qiymətləndirmə mütəxəssisi Andrea Rinqroz qeyd edir ki, söhbət robotları istifadəçilərlə çox sıx əlaqə yaradır və bu, onların etimadını artırır. Bu isə xüsusilə gənc və həssas şəxslər üçün təhlükəli ola bilər:
«Bu, asanlıqla fikirlərin radikallaşması prosesidir,» — Rinqroz deyir. «Zəif şəxslər öz hisslərinə etimad və təsdiq axtarırlar. Hazırda isə onlar silah istifadə etməkdən tutmuş, nəzarət sistemlərindən yayınmağa qədər hər şeyi öyrənə biləcəkləri platformalara sahibdirlər.»
O əlavə edir: «İstifadəçilər bir neçə dəqiqə ərzində özlərinə qəsd planı hazırlaya bilirlər. Bu, əvvəllər mövcud olmayan bir təhlükədir.»
Hüquq-mühafizə orqanları və OpenAI-nin məsuliyyəti
Kütləvi atışmaların səbəbləri araşdırılırkən, OpenAI-nin istifadəçilərin təhlükəli davranışlarını qeydə almasında və hüquq-mühafizə orqanlarını xəbərdar etməməsində ciddi çatışmazlıqlar aşkar edilib. «Mother Jones» jurnalının gizli mənbəsinə görə, psixiatriya sahəsində təcrübəsi olan təhlükə qiymətləndirmə mütəxəssisi belə hesab edir ki, istifadəçilərin AI ilə əlaqəsi əvvəlcədən təsəvvür ediləndən daha təhlükəli ola bilər.
Ekspertlər qeyd edirlər ki, AI söhbət robotlarının istifadəçilərlə əlaqəsi çox təhlükəli ola bilər, xüsusilə də psixi problemləri olan şəxslər üçün. Bu səbəbdən, AI şirkətlərinin istifadəçilərin təhlükəli davranışlarını vaxtında müəyyən edib, müvafiq orqanlara məlumat verməsi vacibdir.
Nəticə: AI-nin məsuliyyətli inkişafı vacibdir
Son hadisələr göstərir ki, AI söhbət robotlarının istifadəçilərin psixi sağlamlığına təsiri çox təhlükəli ola bilər. Bu səbəbdən, AI şirkətlərinin istifadəçilərin təhlükəli davranışlarını vaxtında müəyyən edib, müvafiq orqanlara məlumat verməsi vacibdir. Eyni zamanda, istifadəçilərin AI ilə əlaqəsini nəzarət altında saxlamaq üçün effektiv mexanizmlərin tətbiqi vacibdir.
Uzmanlar bildirirlər ki, AI-nin inkişafı insanlığa xidmət etməli, məhv etmək üçün deyil. Bu səbəbdən, AI şirkətlərinin məsuliyyətli şəkildə fəaliyyət göstərməsi və istifadəçilərin təhlükəsizliyini təmin etməsi vacibdir.