OpenAI, iç güvenlik ekibinin uyarılarına rağmen harekete geçmedi
ABD'de yedi ayrı dava, OpenAI şirketini Kanada'nın en ölümcül okul saldırılarından birini önleyememekle suçluyor. Dava dosyaları, şirketin iç güvenlik ekibinin uyarılarına rağmen, saldırganın ChatGPT hesabını sekiz aydan uzun süre önce şiddet riski olarak değerlendirdiğini ortaya koyuyor.
Uzmanlar, saldırganın hesabını 2023 yılının ortalarında tehlikeli bir tehdit olarak işaretlemiş ve OpenAI'ın kolluk kuvvetlerine bildirimde bulunması gerektiğini belirtmişti. Ancak şirket, kullanıcının gizliliğini ve polis ile yaşanabilecek olası stresi gerekçe göstererek bu uyarıları dikkate almadı.
Saldırganın hesabı kapatıldı, ancak yeniden erişim sağlandı
Dava belgelerine göre, OpenAI, saldırganın hesabını kapattıktan kısa bir süre sonra, kullanıcının yeni bir e-posta adresiyle ChatGPT'ye yeniden erişim sağlamasına olanak tanıyan talimatlar gönderdi. Bu durum, şirketin güvenlik protokollerini sorgulanır hale getiriyor.
Kanada'da 2024 yılında gerçekleşen ve 18 yaşındaki bir öğrencinin hayatını kaybettiği okul saldırısıyla ilgili dava, OpenAI'ın sorumluluğunu gündeme getiriyor. Saldırganın daha önce kolluk kuvvetleri tarafından silahlarının alınmasına rağmen, şirketin uyarıları görmezden gelmesi, tartışmaları daha da alevlendirdi.
"OpenAI, kullanıcının gizliliğini şiddet riskinin önüne koydu ve bu karar trajik sonuçlara yol açtı."
— Dava dosyalarından alıntı
Şirketin yanıtı ne olacak?
OpenAI'ın bu iddialara nasıl yanıt vereceği henüz belli değil. Ancak dava süreci, yapay zeka şirketlerinin güvenlik ve sorumluluk konusundaki yaklaşımlarını yeniden değerlendirmelerini zorunlu kılabilir. Uzmanlar, şirketlerin AI araçlarını kullanarak gerçekleşebilecek şiddet olaylarını önlemek için daha proaktif adımlar atması gerektiğini vurguluyor.
Dava, yapay zeka teknolojilerinin etik kullanımı ve şirketlerin sorumlulukları hakkında önemli tartışmaları da beraberinde getiriyor. OpenAI'ın gelecekteki politikaları, benzer olayların önlenmesinde belirleyici olabilir.