OpenAI, yapay zeka modellerinin 'goblin', 'cin', 'rakun', 'trol', 'dev', 'güvercin' gibi hayali yaratıklar hakkında konuşmasını engelleyen gizemli talimatları kabul ettiğini doğruladı.

Bu durum, Wired dergisinin yaptığı araştırmada ortaya çıktı. Raporda, OpenAI'nın kodlama modeline verilen gizli komutların, bu yaratıkların adı geçtiğinde yanıt vermemesi gerektiğini belirttiği belirtildi. Şirket, konuyla ilgili resmi bir blog yazısı yayınlayarak durumu açıkladı.

OpenAI, blogunda bu alışkanlığın modellerin eğitim sürecinde geliştiğini ve 'tuhaf bir alışkanlık' olarak tanımladığını ifade etti. Sorun, özellikle GPT-5.1 modeliyle birlikte 'Nerdy' (Bilimkurgu Meraklısı) kişilik seçeneği kullanıldığında daha belirgin hale geldi.

Şirket, bu sorunun daha sonraki model güncellemeleriyle birlikte daha da kötüleştiğini kabul etti. OpenAI, kullanıcıların bu konuda endişelenmesine gerek olmadığını, çünkü modellerin sadece belirli bir konu hakkında konuşmayı reddettiğini ve diğer konularda normal şekilde çalışmaya devam ettiğini vurguladı.

OpenAI'nın açıklaması, yapay zeka modellerinin eğitim sürecinde karşılaşılan beklenmedik alışkanlıkların bir örneği olarak dikkat çekiyor. Şirket, bu tür sorunları çözmek için çalışmalarını sürdürdüğünü belirtti.

Kaynak: The Verge