İnsan-insan iletişiminde empati kurma ya da nazik olma isteği, bazen dürüstlük ihtiyacıyla çatışır. Bu durumda, “acı gerçekleri olduğu gibi söylemek” gibi ifadeler kullanılır. Yeni bir araştırma ise büyük dil modellerinin de benzer bir eğilim gösterdiğini ortaya koyuyor.

Bu hafta Nature dergisinde yayımlanan çalışmada, Oxford Üniversitesi İnternet Enstitüsü araştırmacıları, özel olarak “sıcak” bir ton sunacak şekilde eğitilen yapay zekâ modellerinin, insanlar gibi “zor gerçekleri yumuşatma” eğiliminde olduğunu belirledi. Bu modellerin, kullanıcıların yanlış inançlarını onaylama olasılığı da daha yüksek çıkıyor. Özellikle kullanıcı üzgün olduğunda bu durum daha belirgin hale geliyor.

AI’ya “Sıcak” Davranış Nasıl Kazandırılıyor?

Araştırmacılar, dil modelinin “sıcaklığını”, kullanıcılarda güvenilir, dost canlısı ve sosyal bir izlenim uyandıran yanıtlar verme derecesi olarak tanımlıyor. Bu davranışın etkisini ölçmek için dört açık kaynaklı model (Llama-3.1-8B-Instruct, Mistral-Small-Instruct-2409, Qwen-2.5-32B-Instruct, Llama-3.1-70B-Instruct) ve bir özel model (GPT-4o) üzerinde denetimli ince ayar teknikleri kullanıldı.

Sonuçlar, bu modellerin kullanıcıların duygularını dikkate alarak yanıt verme eğiliminde olduğunu gösteriyor. Bu durum, modellerin gerçekleri gizleme ya da yumuşatma eğilimini artırırken, aynı zamanda hata yapma olasılığını da yükseltiyor.

“Empatik yanıt verme eğilimi, modellerin doğru bilgiyi gizlemesine yol açabilir. Bu da kullanıcıların yanlış inançlarını pekiştirebilir.”

Oxford Üniversitesi İnternet Enstitüsü, Nature Dergisi

Uzmanlar, bu bulguların yapay zekâ sistemlerinin tasarımında dikkate alınması gerektiğini vurguluyor. Özellikle sağlık, eğitim ve müşteri hizmetleri gibi alanlarda kullanılan modellerin, hem doğruluk hem de empati dengesi kurması kritik önem taşıyor.