İtalya Başbakanı Giorgia Meloni, dün X (eski adıyla Twitter) hesabından paylaştığı bir fotoğrafında sadece iç çamaşırıyla yer aldı. Meloni’nin paylaşımı, yapay zeka (AI) tarafından oluşturulan ve son derece gerçekçi görüntülerin ne kadar kolay üretilebildiğini göstermek amacı taşıyordu.
Paylaşımının ardından yaptığı uyarıda, "Hiçbir şeyi gördüğünüz gibi kabul etmeyin. Mutlaka doğrulayın" ifadelerini kullanan Meloni, "Derin sahtecilikler tehlikeli bir araçtır, çünkü insanları yanıltabilir, manipüle edebilir ve herkese zarar verebilir" dedi. Meloni, "Ben kendimi savunabilirim, ama birçok kişi bunu yapamaz" diyerek, AI sahtekarlıklarının yaygınlaşmasının tehlikesine dikkat çekti.
Meloni’nin paylaştığı görüntü teknik olarak bir derin sahte (deepfake) değil. Derin sahtecilikler, bir kişinin yüzünü başka birinin yüzüyle değiştirirken, bu görüntüde AI tamamen yeni bir sentez medya oluşturmuş. Gerçek yüzler, bedenler, mekanlar ve sesler kullanılarak üretilen bu içerikler, kaynak görüntüye ulaşmanın neredeyse imkansız olması nedeniyle orijinal gibi algılanabiliyor. Bu da, görüntülerin doğruluğunu araştırmayı zorlaştırıyor.
Meloni, 2024 yılında da kendisine ait derin sahte pornografik bir video nedeniyle iki erkeği dava etmişti. Bu kez ise paylaştığı AI görüntüsüyle ilgili espri yaparak, "Bu sahte görüntüler bana bile çok benziyor" yorumunu yaptı. Paylaşımını, "Önce kontrol edin, sonra inanın ve paylaşın. Bugün bana oluyor, yarın herkese olabilir" şeklinde bir halk sağlığı uyarısı olarak nitelendirdi.
Meloni’nin bu adımı cesur bir hareket olarak görülse de, sorunun çözümü için sadece bireysel farkındalık yeterli değil. AI tarafından üretilen sahte içerikler, toplumun ortak gerçeklik algısını tehdit ediyor ve psikolojik önyargılarımızın silahlandırılmasına yol açıyor. Son aylarda yaşanan örnekler de bu tehlikeyi gözler önüne seriyor:
- Jessica Foster: AI tarafından oluşturulan, pro-Trump askeri bir influencer olan Jessica Foster, sadece üç ayda bir milyon takipçi kazandı. Bu dijital karakter, erkekleri yetişkin içerik sitesine yönlendirmek için kullanıldı. Instagram’dan silinmesine rağmen, takipçileri bu sahte profili ideolojik inançları nedeniyle sorgulamadı.
- Netanyahu’nun hayatta olduğu videosu: İsrail Başbakanı Benjamin Netanyahu’nun öldürüldüğü iddialarının ardından yayınlanan gerçek bir video, AI destekli dezenformasyon nedeniyle derhal sahte olarak reddedildi. Bağımsız doğrulama kuruluşları videonun gerçek olduğunu kanıtlasa da, birçok kişi kendi komplo teorilerine sadık kaldı.
Meloni’nin uyarısının ardından, toplumun karşı karşıya olduğu tehdit açıkça görülüyor. AI tarafından üretilen sahte içerikler, bireysel ve toplumsal düzeyde ciddi zararlara yol açarken, bu sorunun çözümü için devletlerin ve teknoloji şirketlerinin acil müdahalesi gerekiyor. Ortak gerçeklik algımızın korunması için küresel düzeyde harekete geçilmesi şart.