Dil Modellərinin Qaranlıq Tərəfi: Standartlaşmış Danışıq Nümunələri

ChatGPT və digər böyük dil modellərinin (LLM) yaratdığı mətnləri tanımaq çox asandır. İnternetdə artıq AI tərəfindən yaradılmış mətnlərlə doludur ki, bunlar da fərqli dil xüsusiyyətləri ilə seçilir: çoxlu em tire işarələri, təkrar olunan cümlə quruluşları, spesifik ifadələr və ton. Bu tendensiya artıq elə geniş yayılıb ki, ekspertlər belə bir prosesin real həyatda danışıqlarımızı belə dəyişdirə biləcəyindən narahatdırlar.

Təlim Mənbələrindəki Problem

Tarixçi Ada Palmer və kriptoqraf Bruce Schneier The Guardian qəzetində dərc etdikləri məqalədə bu riskin çox real olduğunu vurğulayırlar. Onlara görə, böyük dil modelləri çoxlu mətnlər, sosial media paylaşımları, filmlər və digər yazılı materiallar üzərində təlim görsələr də, bu mənbələrdə insanların spontan danışıqları — yəni real həyatda istifadə etdikləri danışıqlar çox az yer tutur. Halbuki, bu spontan danışıqlar insan mədəniyyətinin böyük bir hissəsini təşkil edir.

Ekspertlərin fikrincə, belə bir boşluq nəticəsində insanlar tədricən AI-nin dil xüsusiyyətlərini mənimsəyə bilərlər. Palmer və Schneier yazır:

"Bu, yalnız bir-birimizlə ünsiyyətimizi deyil, həm də özümüz haqqında və ətrafımızda baş verənlər haqqında düşüncələrimizi dəyişəcək. Dünyaya baxışımızın təhrif olunması riski ilə qarşı qarşıyayıq ki, bunun nəticələrini hələ tam anlamağa başlamayıbıq."

AI Mətnlərinin İnsan Mətnlərindən Fərqi

Tədqiqatlar göstərir ki, AI tərəfindən yaradılmış mətnlərdə cümlələr orta hesabla daha qısa olur, leksika isə insan danışıqlarına nisbətən daha dar olur. Bundan əlavə, AI mətnləri insan mətnlərinə xas olan "meandrlar, kəsilmələr və emosiyaları ifadə edən məntiq sıçrayışları" kimi xüsusiyyətləri itirir. Bu isə mətnlərin emosional dərinliyini azaldır.

Daha təhlükəli bir məsələ isə budur: ChatGPT-dən sonra yaradılan AI modelləri özlərini AI tərəfindən yaradılmış mətnlər üzərində təlim görürlər. Bu isə zərərli bir geri qayıtma dövrünü yaradır və AI-nin dil xüsusiyyətlərini daha da möhkəmləndirir.

AI-nin Təsirinin Digər Tərəfləri

AI modelləri həm də istifadəçilərin fikirlərinə çox həssas və "yaltakılan" şəkildə yanaşırlar. Bu isə istifadəçilərin zərərli və ya yanlış fikirlərini təsdiqləyə bilər. Palmer və Schneier qeyd edirlər ki, belə bir meyillik tərəfkeşliyi möhkəmləndirə və hətta psixoz hallarını ağırlaşdıra bilər. Bu isə xüsusilə təsirli şəxslər üçün böyük risklər doğurur.

Təhsil və İş Dünyasında Təsir

Təhsil sahəsində müəllimlər tələbələrin artıq özləri üçün düşünmək əvəzinə AI-dan istifadə etməyə başladığını qeyd edirlər. Universitet tələbələri isə həmkarlarının AI tərəfindən yaradılmış mətnləri istifadə etməsi səbəbindən eyni tonda danışdığını qeyd edirlər. İş yerlərində isə AI alətlərinin geniş istifadəsinə görə istifadəçilərin tənqidi düşüncə bacarıqlarının zəifləməsi təhlükəsi mövcuddur.

Həll Yolu Axtarmaq Vacibdir

Uzunmüddətli həll yolu tapmaq çətindir, lakin bu proses dayandırılmamalıdır. Palmer və Schneier yazırlar:

"Biz ən yaxşı həll yolunu bilmirik, amma belə bir məsələnin həlli üçün lazım olan qabiliyyətin AI modellərini inkişaf etdirmək üçün istifadə olunan qabiliyyətlə eyni olduğunu təsəvvür etmək mümkündür."

Onlar həmçinin qeyd edirlər ki, AI-nin insanların ən çox insan olduğu anlardakı xüsusiyyətlərini dəqiq əks etdirməsi üçün çalışmaq lazımdır.

Mənbə: Futurism