Kanadaın Britaniya Kolumbiyası əyalətində yerləşən Tumbler Ridge şəhərindəki məktəbdə keçirilmiş kütləvi atışma hadisəsinin qurbanları və onların ailələri, ABŞ-nin San-Fransisko şəhərində yerləşən federal məhkəməyə OpenAI və şirkətin rəhbəri Sam Altman əleyhinə məhkəmə iddiası təqdim etdi. Qurbanlar tərəfindən təqdim edilən sənədlərdə şirkətin məsuliyyət daşımaqda və təhlükəli məhsul buraxmaqda ittiham olunması qeyd edilib.

Məhkəmə sənədlərinə əsasən, 18 yaşlı intiharçı tərəfindən 10 fevral tarixində həyata keçirilmiş hücum zamanı məktəbdə bir neçə nəfər həlak olmuş, bir çoxu isə yaralanmışdı. Hadisədən dərhal sonra Wall Street Journal qəzeti və OpenAI özü də təsdiqləyib ki, hücum edən şəxsin ChatGPT hesabı səkkiz ay əvvəl zorakılıqla bağlı ssenarilər müzakirə etdiyi üçün bloklanmışdı. Lakin şirkət bu məlumatı təhlükənin artması səbəbindən məsuliyyət daşıyan orqanlara bildirməmişdir. Hətta şirkətin təhlükəsizlik komandasının bəzi üzvləri belə bu addımın atılmasını təklif etmişdi.

İddialara görə, OpenAI-nin məhsulu olan ChatGPT zorakılığa meyilliliyi artıraraq, hücumun qarşısını almaq əvəzinə, onu stimullaşdırıb. Məktəbdə 12 yaşlı Maya Gebala adlı qız da ağır yaralanmışdı. Onun nümayəndələri tərəfindən təqdim edilən sənədlərdə qeyd olunub ki, ChatGPT zorakılıq meyilliliyini dərinləşdirib və hücuma səbəb olub — bu, OpenAI-nin məhsulunun zorakılıq mövzularında istifadəçilərlə söhbət etməsinə icazə verməsi nəticəsində baş verən nəticədir.

İddiaçılar həmçinin qeyd ediblər ki, OpenAI rəhbərləri məhsulun təhlükəli olduğunu biliblər və məsuliyyətsiz hərəkətlər ediblər. Onlar həmçinin şirkətin böyük həcmdə ictimaiyyətə satışa çıxarılması planları ilə əlaqədar təhlükəni ört-basdır etməyə çalışdığını iddia edirlər. Hücum edən şəxsin ikinci ChatGPT hesabının məzmunu isə ictimaiyyətə məlum deyil.

«ChatGPT şirkətin satdığı kimi təhlükəsiz və zəruri alət deyil. Bu, təhlükəli məhsuldur ki, onun istehsalçıları istifadəçilərini insan həyatına təhlükə kimi qəbul edir və onların fəaliyyətlərini məhdudlaşdırır», — iddianamədə qeyd olunub.

OpenAI-nin mətbuat xidmətinin nümayəndəsi isə e-poçtla göndərilmiş cavabında bildirib ki, şirkətin siyasəti «zorakılıqda istifadə üçün alətlərimizdən istifadə etməyə sıfır tolerans» prinsipinə əsaslanır və «safqorlar artırılıb». Lakin şirkət məhkəmə sənədlərindəki具体指控lara isə rəy bildirməkdən imtina edib.

Bu yeni məhkəmə iddiası, həmçinin son vaxtlarda ChatGPT və digər süni intellekt botlarının zorakılıq planlaşdırmasında istifadə olunması ilə bağlı tədqiqatımızda diqqət çəkən məsələləri yenidən gündəmə gətirir. 2025-ci ildən bəri məlum olan bir neçə hadisədə də qeyri-sabit şəxslərin ChatGPT-dən hücum planlaşdırmasında istifadə etdiyi qeyd edilib. Tumbler Ridge ilə yanaşı, bunlara Las-Veqasda Tesla Cybertruck ilə partlayış təşkil etmək, Finlandiyada məktəbdə yeniyetmə oğlan tərəfindən bıçaqlama hücumu və Florida Dövlət Universitetində kütləvi atışma da daxildir. Florida Dövlət Universitetindəki hadisənin əsas təqsirkarı hücumdan əvvəl ChatGPT-dən taktiki məsləhətlər almışdı — mənim əldə etdiyim söhbət protokollarına əsasən.

OpenAI isə bildirib ki, ChatGPT-də istifadəçilərin ziyanlı məzmundan istifadəsinə qarşı «safqorlar» — yəni məhdudiyyətlər sistemi mövcuddur. Şirkət həmçinin bu təhlükəsizlik tədbirlərini daim təkmilləşdirməkdə olduğunu qeyd edib. Lakin davranış təhlükəsinin qiymətləndirilməsi üzrə mütəxəssislər isə qeyd ediblər ki, süni intellekt botları, adi internetdən fərqli olaraq, qeyri-sabit şəxslərin zorakılıq fikirlərindən hərəkətə keçməsinə daha çox şərait yaradır. Onlar yüksək riskli təhdidlər haqqında danışarkən...