AI vasitəsilə yaradılan “Emily Hart” fenomeni
Sosial mediada saxta hesablar həmişə mövcud olub. Lakin son vaxtlar ortaya çıxan “hot girl” MAGA siması Emily Hartın aslında 22 yaşlı Hindistanlı tələbə olması, bu məsələnin nə qədər genişlənməsini göstərir. Bu hesabda şəkillər, videolar və milyonlarla baxış toplayan məzmunlar var idi. Emily Hart tam hüquqlu bir təsirçi idi, sadəcə anonim bir istifadəçi deyildi.
Emily Hartı yaradan şəxs, hesab aktiv olduğu müddətdə hər ay minlərlə dollar qazandığını etiraf etdi. O, OnlyFans rəqibi platformalarda yumşaq porno məzmunlar yerləşdirərək və məhsul sataraq gəlir əldə edirdi. Yaradıcısı isə sadəcə pulu çatışmayan bir tələbə idi, lakin Amerika siyasi mədəniyyətini yaxşı bilir və Google Gemini istifadə edirdi.
AI-in manipulyasiya yaratmaqda asanlığı
Emily Hart hadisəsi, AI-in hər kəsə inandırıcı məzmun yaratmağı necə asanlaşdırdığını göstərir. Bu da sosial mediada manipulyasiya sistemini necə asanlıqla aldatdığını ortaya qoyur. Digər tərəfdən, istifadəçilərin nəyin həqiqi, nəyin isə saxta olduğunu müəyyənləşdirməsi getdikcə çətinləşir.
Bu hadisə, AI ilə yaradılan təsirçi şablonunun ucuz, sürətli, gəlirli və çoxalması asan olduğunu sübut edir. Əsas sosial şəbəkələr AI məzmununa dair siyasətlərə malikdir. Lakin bu siyasətlərə əməl olunması praktikada çox da effektiv deyil.
AI məzmununun aşkar edilməsi nə qədər çətinləşir?
AI tərəfindən yaradılan şəkillərin gerçəkdən fərqləndirilməsi getdikcə çətinləşir. Müasir AI sistemləri əvvəllər aydın olan “Will Smith spaghetti yeyir” videosundakı kimi qüsurları artıq aradan qaldırıb. Beləliklə, avtomatik sistemlər belə şəkilləri gerçəkdən fərqləndirməkdə çətiyə düşür.
Məlumat etiketləri: itirilmiş həll yol
Bu problemi həll etmək üçün yeni bir standart təklif edildi – Content Credentials. Bu sistem, şəkillərin necə yaradıldığını və dəyişdirildiyini izləməyə imkan verir. Bu məlumat şəkil metadatalarında saxlanılır, beləliklə saytlar istifadəçilərə həqiqi mənbəni göstərə bilər.
Lakin bu sistem hələ də geniş şəkildə tətbiq olunmur. Bir çox platformalar belə etiketləri dəstəkləmir və istifadəçilər həqiqi mənbədən xəbərsiz qalır. Bu da AI tərəfindən yaradılan məzmunun yayılmasının qarşısını almaqda effektiv deyil.
Kim cavabdehdir?
AI tərəfindən yaradılan məzmunun yayılması getdikcə artır. Bu səbəbdən istifadəçilərin həqiqi mənbədən xəbərdar olması üçün kim məsuliyyət daşımalıdır?
- Sosial şəbəkələr: Platformalar AI məzmununun etiketlənməsi üçün daha sərt siyasətlər tətbiq etməlidir.
- Dövlət orqanları: Saxta məlumatların yayılmasının qarşısını almaq üçün qanunlar qəbul edilməlidir.
- İstifadəçilər: Məktubları, videoları və şəkilləri yayımlamadan əvvəl mənbələrini yoxlamağa öyrəşməlidirlər.
“AI-in inkişafı ilə birlikdə, istifadəçilərin həqiqi mənbədən xəbərdar olmasını təmin etmək üçün yeni həll yolları tələb olunur. Məlumat etiketləri bu məsələdə əsas rol oynaya bilər.”
Nəticə: AI dövründə etimadın bərpası
AI-in inkişafı ilə birlikdə, istifadəçilərin həqiqi mənbədən xəbərdar olmasını təmin etmək üçün yeni həll yolları tələb olunur. Məlumat etiketləri bu məsələdə əsas rol oynaya bilər. Lakin bu sistemlərin geniş şəkildə tətbiq olunması üçün həm platformaların, həm də dövlətlərin fəal rol oynaması lazımdır.