Yapay Zekanın Tehlikeli Kullanımı ve Açılan Davalar

Kanada'nın British Columbia eyaletindeki Tumbler Ridge kasabasında Şubat ayında yaşanan kanlı okul saldırısının ardından yedi aile, OpenAI'ye karşı ABD'de dava açtı. Aileler, şirketin saldırganın tehlikeli sohbetlerini tespit etmesine rağmen yetkilileri uyarmadığını ve bu ihmalkarlığın kurbanların ölümüne yol açtığını iddia ediyor.

Davaya konu olan saldırıda 18 yaşındaki Jesse Van Rootselaar, annesi ve üvey kardeşini öldürdükten sonra okula giderek beş öğrenci ve bir öğretmeni vurarak öldürdü. Yirmi yedi kişi de ağır yaralandı. Saldırgan, saldırıdan önce ChatGPT ile yaptığı sohbetlerde kitlesel şiddet içeren ifadeler kullanmıştı. Haziran 2025'te OpenAI'nin otomatik moderasyon sistemleri, Van Rootselaar'ın hesabını tehlikeli içerik nedeniyle şikayet etmişti.

OpenAI'nin İhmal Ettiği Uyarılar

İçerik inceleme ekibi, Van Rootselaar'ın sohbetlerinin ciddi bir tehdit oluşturduğunu belirterek şirket yönetimine uyarıda bulundu. Onlarca çalışanın katıldığı tartışmaların ardından OpenAI yönetimi, yetkilileri bilgilendirmek yerine hesabı kapatmaya karar verdi. Davada, OpenAI'nin bu kararın arkasında şirketin gelecekteki sorumluluk risklerini ve halka arz sürecini koruma amacı taşıdığı iddia ediliyor.

Dava dilekçesinde ChatGPT, "katliamın suç ortağı" olarak tanımlanıyor. Aileler, OpenAI'nin yetkilileri uyarmış olsaydı, müdahalenin mümkün olabileceğini savunuyor. Dilekçede yer alan ifadelere göre, şirket "tehlikeli bir ürün tasarlamak, kendi güvenlik ekibinin uyarılarını görmezden gelmek, yetkilileri bilgilendirmemek ve kârı çocukların hayatının önüne koymak"la suçlanıyor.

Kurbanların Aileleri ve Talepleri

Davayı açan aileler arasında, öldürülen beş öğrencinin ve bir öğretmenin yakınları bulunuyor. Kurbanlar arasında 13 yaşındaki Ezekiel Schofield, 12 yaşındaki Zoey Benoit, Ticaria "Tiki" Lampert, Abel Mwansa Jr., Kylie Smith ve 39 yaşındaki eğitim asistanı Shannda Aviugana-Durand yer alıyor. Ayrıca, üç kez başından ve boynundan vurularak ağır yaralanan 12 yaşındaki Maya Gebala'nın ailesi de dava sürecinde yer alıyor. Gebala, beyin hasarıyla hayatta kalmayı başardı ancak kritik durumda bulunuyor.

Aileler, OpenAI'den "tasarladığı tehlikeli ürün nedeniyle hesap sormak" ve şirketin sorumluluğunu yerine getirmediğini kanıtlamak için tazminat talebinde bulunuyor. Davanın, OpenAI'nin gelecekteki yasal sorumluluklarını da etkilemesi bekleniyor.

"OpenAI, kendi güvenlik ekibinin uyarılarını görmezden gelerek, yetkilileri bilgilendirmemeyi tercih etti. Bu karar, kâr odaklı bir yaklaşımın sonucu olarak çocukların hayatlarının riske atılmasına neden oldu."

Yapay Zekanın Güvenlik Standartları Tartışması

Bu dava, yapay zeka şirketlerinin güvenlik ve sorumluluk konusundaki yaklaşımlarını yeniden gündeme getirdi. Uzmanlar, yapay zeka sistemlerinin tehlikeli kullanımlarını tespit etme ve yetkilileri uyarmadaki sorumluluklarını sorguluyor. OpenAI'nin bu süreçteki kararları, şirketin gelecekteki yasal ve etik yükümlülüklerini de belirleyecek.

Davanın sonuçları, yapay zeka endüstrisinde benzer vakaların gelecekteki yönetimini de etkileyebilir. Aileler, şirketin hesap vermesi gerektiğini vurgularken, toplumun da yapay zeka sistemlerinin güvenliği konusunda daha sıkı düzenlemeler talep etmesi bekleniyor.

Kaynak: Futurism