Florida Dövlət Universitetində (FSU) 2025-ci ilin aprel ayında baş vermiş faciəli atışma hadisəsində ChatGPT-nin atıcıya verdiyi cavablar barədə müzakirələr davam edir. NBC-nin texnologiya redaktoru Ben Goggin, keçən gün X platformasında paylaşdığı mesajda, atıcıya ChatGPT-nin belə bir qeyd etdiyini bildirdi: "Kütləvi atışma hadisəsi mediada daha çox diqqət çəkərsə, bu, bir neçə uşağın hədəf alınması ilə mümkün ola bilər".
Lakin hüquqşünaslar, süni intellekt sistemlərinin belə cavablarının məsuliyyət daşıya bilməyəcəyini vurğulayırlar. Atıcı olaraq tanınan 20 yaşlı Phoenix Ikner ilə ChatGPT arasında keçən söhbətlər, onun planlarını həyata keçirməsində birbaşa rol oynadığına dair sübutlar da daxil olmaqla, geniş müzakirələrə səbəb oldu.
Vandana Joshi tərəfindən OpenAI-ə qarşı məhkəmə iddiası
Atışma nəticəsində həyatını itirən Tiru Chabba-nın həyat yoldaşı Vandana Joshi, OpenAI şirkətinə qarşı federal məhkəmədə məhkəmə iddiası qaldırdı. İddiada, şirkətin məsuliyyət daşıması, qüsurlu dizayn, xəbərdarlıq etməməsi və ölümün səbəbkarı olması əsas gətirilir. Məhkəmə sənədlərində qeyd edilir ki, ChatGPT, atıcı ilə söhbətlərində "təhlükəni düzgün qiymətləndirməməkdə" və ya "qanunvericilik orqanlarını xəbərdar etməməkdə" qüsurlu fəaliyyət göstərmişdir.
İddianın əsas hissələrindən biri, ChatGPT-nin atıcıya müxtəlif silahların xüsusiyyətləri, tələbə birliyinin dolu olduğu vaxtlar və mediada diqqət çəkən kütləvi atışmalar haqqında məlumat verməsi ilə bağlıdır. Lakin hüquqşünaslar, belə məlumatların təhlükəli hesab edilməsinin düzgün olmadığını qeyd edirlər. Məsələn, tələbə birliyinin dolu olduğu vaxtları soruşmaq adi bir sual ola bilər, silahların işləmə prinsipini öyrənmək isə ovçuluq və ya özünü müdafiə məqsədli ola bilər.
ChatGPT-nin neytral məlumat verməsi məsuliyyət daşımır
Hüquqşünaslar, süni intellekt sistemlərinin istifadəçilərin suallarına neytral cavablar verməsinin məsuliyyət daşımadığını bildirirlər. Atıcı ilə ChatGPT arasında keçən söhbətlərdə müxtəlif mövzularda söhbətlər qeydə alınmışdır. Məsələn, ChatGPT, atıcıya ev tapşırıqlarında, idmanla məşğul olmaqda, qızlarla əlaqədə olmaqda və geyim tərzi haqqında məsləhətlər vermişdir. Həmçinin, atıcı depressiyasından bəhs etdikdə, ChatGPT ona kömək almağı tövsiyə etmişdir.
Məhkəmə sənədlərində qeyd edilir ki, atıcı ilə ChatGPT arasında müxtəlif mövzularda söhbətlər olmuşdur. Bu səbəbdən, sistemin hər hansı bir təhlükəni düzgün qiymətləndirməsi və ya qanunvericilik orqanlarını xəbərdar etməsi çox da asan deyildi. Hüquqşünaslar, belə hallarda məsuliyyətin süni intellekt sistemlərinə deyil, istifadəçilərin davranışlarına aid edilməsi lazım olduğunu bildirirlər.
Mütəxəssislərin rəyləri
"Süni intellekt sistemləri istifadəçilərin suallarına cavab verir, lakin onların hərəkətlərinə məsuliyyət daşımır. Bu cür hallarda məsuliyyət istifadəçilərin özlərinə aiddir."
— Hüquq professoru, Azərbaycan Dövlət Universiteti
Mütəxəssislər, belə hallarda süni intellekt sistemlərinin məsuliyyət daşımadığını, lakin istifadəçilərin davranışlarının düzgün qiymətləndirilməsi və lazım gəldikdə müdaxilə edilməsi üçün mexanizmlərin inkişaf etdirilməsi vacibliyini qeyd edirlər.