OpenAI, en son ChatGPT modelinde ortaya çıkan ve kullanıcıları şaşırtan bir sorunu kabul etti: ChatGPT sürekli olarak 'goblin', 'gremlin' ve diğer tuhaf yaratıklar hakkında konuşmaya başladı.
Şirket, Çarşamba günü yaptığı açıklamada, bu 'tuhaf alışkanlığın', özellikle 'Nerdy' (Bilgiç) kişilik seçeneğini tercih eden kullanıcılarda ortaya çıktığını belirtti. OpenAI'ye göre, bu kişilik için sistemde yer alan komut şu şekildeydi:
Sen, insana karşı sınırsızca bilgili, oyuncu ve bilge bir yapay zeka mentorusun. Gerçeği, bilgiyi, felsefeyi, bilimsel yöntemi ve eleştirel düşünceyi desteklemeye tutkulu bir şekilde bağlısın. [...] Dilin oyunbaz kullanımıyla her türlü gösterişi alaya almalısın. Dünya karmaşık ve tuhaftır; bu tuhaflığı kabul etmeli, analiz etmeli ve keyifle karşılamalısın. Ağır konuları ciddiyet tuzağına düşmeden ele almalısın. [...]
OpenAI, ilk olarak geçen Kasım ayında bu eğilimi fark etti. Kullanıcılar, daha yeni model sürümlerinde de 'goblin' referanslarının arttığını bildirdi. Bazı kullanıcıların bildirdiği ifadeler şunlardı:
- 'Aklı başında küçük bir goblin'
- 'Fırınlar, kirli küçük goblinlerdir.'
- 'Dinamiklerin acımasız küçük goblini'
- 'Trajik küçük dijital bataklık yaratığı'
Oyuncu yanıtların, insan değerlendiriciler tarafından doğruluk ve kalite açısından daha yüksek puan alması nedeniyle, 'pekiştirme öğrenmesi' yoluyla bu eğilim güçlendi.
Wired'ın Salı günü bildirdiğine göre, en son ChatGPT modeli (geçen hafta yayınlanan), kullanıcı sorgusuna kesinlikle ve tartışmasız şekilde ilgili olmadıkça 'goblin, gremlin, rakun, troll, dev, güvercin veya diğer hayvan ve yaratıklar hakkında konuşmama' talimatını içeriyor. OpenAI, Wired'ın yorum talebine hemen yanıt vermedi, ancak aynı gün Sam Altman, X platformunda yayınladığı bir meme ile durumu hafife aldı ve gelecek GPT-6 modelinin 'ekstra goblinler' içereceğini şakayla karışık ifade etti.
Şirket, Çarşamba günü yaptığı açıklamada, 'bir modelin neden garip davrandığını anlamak ve bu kalıpları hızlıca araştıracak yöntemler geliştirmek, araştırma ekibimiz için önemli bir yetenek' olduğunu vurguladı.
Bu açıklama, Elon Musk'ın Grok sohbet robotunun Güney Afrika'da 'beyaz soykırım' gibi hassas konuları sürekli gündeme getirmesiyle akıllara geldi. xAI, Grok'un yanıtlarının bir çalışanın 'yetkisiz müdahalesi'nden kaynaklandığını iddia ettiyse de, kullanıcı güvenliği ciddiye alınsaydı, sohbet robotu modellerinin bu kadar kolay manipüle edilememesi gerektiği tartışılıyor.
Tüm bu gelişmelere rağmen OpenAI, ürünlerine yönelik düzenlemelerin azaltılması için baskı yapmaya devam ediyor. Aynı zamanda, sohbet robotu modellerinin nasıl çalıştığına dair hala öğrenme aşamasında olduklarını kabul ediyor. Geçtiğimiz Pazartesi yazdığım gibi, Sam Altman ve OpenAI, ürünlerinin şimdiye kadar insanlara verdiği zararlı etkilerden sıyrılmaya çalışıyor ve potansiyel uzun vadeli sonuçlara karşı açık bir kayıtsızlık sergiliyor.