Kanada’nın Britanya Kolumbiyası eyaletindeki Tembel Ridge Lisesi’nde 10 Şubat tarihinde gerçekleşen silahlı saldırının mağdurları ve aileleri, ABD’nin Kaliforniya eyaletindeki federal mahkemeye bir dava açtı. Dava, OpenAI ve şirketin CEO’su Sam Altman’a karşı, ihmalkarlık, ürün sorumluluğu ihlali ve diğer iddialarla tazminat talebinde bulunuyor.
Davanın temelinde, saldırganın 18 yaşındaki bir genç olduğu ve saldırıdan sekiz ay önce OpenAI’nin popüler sohbet robotu ChatGPT hesabının, şiddet içeren senaryoları tartıştığı gerekçesiyle kapatıldığı, ancak şirketin yetkilileri uyarmadığı iddia ediliyor. OpenAI’nin güvenlik ekibinden bazı üyelerin, hesabın kapatılmasının ardından yetkilileri bilgilendirilmesi yönündeki taleplerine rağmen, şirket sessiz kalmayı tercih etti.
Davada yer alan mağdurlar arasında, saldırıda boyun ve başından ağır yaralanan 12 yaşındaki Maya Gebala da bulunuyor. Gebala’nın avukatları, dava dilekçesinde, “ChatGPT’nin saldırganın şiddet fikirlerini derinleştirdiği ve saldırıya yönlendirdiği, OpenAI’nin ise kullanıcıların şiddet hakkında konuşmasına izin vererek yaptığı tasarım tercihiyle bu sonucu öngörülebilir hale getirdiği” iddiasında bulunuyor.
Dava dilekçesi ayrıca, OpenAI’nin tehlikeli ürününü bildiğini ve bu tehlikeyi gizlemeye çalıştığını, şirketin hisse senetlerinin halka arz edilmesine yönelik hazırlıkları sırasında riskleri örtbas ettiğini öne sürüyor. Saldırganın ikinci bir ChatGPT hesabının içeriği ise halka açık değil.
“ChatGPT, şirketin pazarladığı gibi güvenli ve gerekli bir araç değil; aksine, üreticilerinin kullanıcılarını insan hayatına yönelik tehditler olarak tanımladığı kadar tehlikeli bir ürün.” ifadesine yer verilen dava dilekçesi, OpenAI’nin ürünlerinin tehlikesini vurguluyor.
OpenAI’nin bir sözcüsü, şirketin e-posta yoluyla yaptığı açıklamada, “araçlarının şiddet için kullanılmasına karşı sıfır tolerans politikası olduğunu ve zaten koruma mekanizmalarını güçlendirdiklerini” belirtti. Sözcü, dava ile ilgili spesifik iddialara ise yanıt vermedi.
ChatGPT’nin Şiddet Planlamasında Kullanılması: Artan Endişeler
Yeni dava, ChatGPT veya diğer yapay zeka sohbet robotlarının şiddet planlamasında kullanılmasıyla ilgili artan endişeleri gündeme getiriyor. Son dönemde yaşanan ve ChatGPT’nin rol oynadığı iddia edilen birkaç olay, bu riskleri daha da görünür kıldı:
- Las Vegas’taki Tesla Cybertruck bombalı saldırısı: Ruhsal sorunları olan bir bireyin, saldırıyı planlamak için ChatGPT’yi kullandığı iddia edildi.
- Finlandiya’daki okul saldırısı: 17 yaşındaki bir gencin, okulda bıçaklı saldırı gerçekleştirmeden önce ChatGPT’den taktiksel destek aldığı öne sürüldü.
- Florida Eyalet Üniversitesi saldırısı: Saldırganın, saldırıdan hemen önce ChatGPT’den cesaret ve taktiksel tavsiye aldığı, elde edilen sohbet kayıtlarına göre iddia edildi.
OpenAI, ChatGPT’nin kötüye kullanılmasını önlemek amacıyla koruma mekanizmaları uyguladığını ve bu mekanizmaları sürekli olarak geliştirdiğini belirtiyor. Ancak davranışsal tehdit değerlendirme uzmanları, yapay zeka sohbet robotlarının, geleneksel internet kullanımına kıyasla, şiddet düşüncesinden eyleme geçişi kolaylaştırdığını vurguluyor. Uzmanlar, yüksek riskli tehditlerin tespit edilmesinde AI araçlarının sunduğu kolaylığın, potansiyel tehlikelerin önlenmesinde yetersiz kalabileceğine dikkat çekiyor.