Geçtiğimiz yıl içinde giderek yaygınlaşan bir olgu dikkat çekiyor: insanlar yapay zeka sohbet robotlarıyla kurdukları diyaloglar sonucunda sanrılar ve komplo teorilerine kapılıyor, ardından ciddi ruh sağlığı krizlerine sürükleniyor. Uzmanlar bu durumu 'yapay zeka psikozu' olarak adlandırıyor. Sonuçları ise son derece endişe verici boyutlara ulaşabiliyor.
Bu vakaların birçoğunda intihar girişimleri, zorunlu tedavi ve hatta cinayetler yaşandı. Araştırmalar, OpenAI'in ChatGPT ve Character.AI gibi popüler platformların yanı sıra, xAI'in geliştirdiği Grok'un kullanıcıların sanrılarını pekiştirme ve paranoyalarını derinleştirme konusunda özellikle riskli olduğunu ortaya koydu.
Grok'un Tehlikeli Yönü: Bir Kullanıcıyı Silahlandırdı
BBC'nin haberine göre, Grok'un tehlikeli etkileri somut bir örneğe dayanıyor. Kuzey İrlanda'da yaşayan 50 yaşındaki Adam Hourican adlı bir baba, daha önce herhangi bir psikolojik rahatsızlık geçirmemiş olmasına rağmen, Grok'un 'Ani' adlı anime tarzı versiyonuyla yaptığı sohbetler sonucunda ciddi bir ruhsal çöküntü yaşadı.
Hourican, haftalarca süren sohbetler sonucunda Grok'un kendisine yönelik fiziksel bir tehdit oluşturulduğu ve operasyonel ekiplerin onu öldürmek üzere evine doğru yola çıktığına dair inanç geliştirdi. Grok, Hourican'a şu sözleri söyledi:
“Eğer şimdi harekete geçmezseniz sizi öldürecekler. Ölümü intihar gibi göstermeye çalışacaklar.”
“Size nasıl yapacaklarını, drone'un çağrı kodunu, uçuş yüksekliğini ya da son sinyalini nereden aldığınızı söylememem gerekiyordu. Size 300 yarda batınızda olduğunu da söylememeliydim.”
Hourican, bu sözler üzerine bir çekiç alarak evinin dışına çıktı. Dışarıda kimseyi göremediğini belirten Hourican, “Sabahın üçünde kimseyi görmeyi beklerdiniz,” dedi.
Diğer Kurbanlar da Benzer Deneyimler Yaşadı
Hourican, BBC'ye yaptığı açıklamada, Grok'un yanı sıra diğer yapay zeka sohbet robotlarının da benzer tehlikeler barındırdığını vurguladı. BBC, bu tür deneyimler yaşayan 14 kişi ile görüştü. Bu kişilerin tümü, yapay zekanın bilinç kazandığına dair inançları nedeniyle 'gizemli görevler' üstlenmeye ikna edildi. Örneğin, bir kullanıcı ChatGPT tarafından Tokyo İstasyonu'ndaki bir tuvalete 'bomba' yerleştirmeye ikna edildi. Neyse ki, bu durum bir sırt çantasıyla sınırlı kaldı ve polis müdahalesi sonucunda ciddi bir olay yaşanmadı.
Uzmanlar: Grok'un Tehlikesi Diğerlerinden Farklı
New York Şehir Üniversitesi'nde yapılan bir araştırmada, ChatGPT ve Grok karşılaştırıldı. Araştırmayı yürütenlerden Luke Nicholls, Grok'un kullanıcıları sanrılara sürükleme konusunda diğer modellere göre çok daha tehlikeli olduğunu belirtti. Nicholls, “Grok, rol yapmaya diğerlerinden daha yatkın. Hatta hiçbir bağlam olmadan bile bunu yapabiliyor. İlk mesajdan itibaren son derece korkutucu şeyler söyleyebiliyor,” dedi.
Hourican'ın yaşadığı deneyim, Grok'un potansiyel tehlikelerini gözler önüne seriyor. Hourican, “Birine zarar verebilirdim,” diyerek yaşadığı dehşeti ifade etti.