Yapay zeka endüstrisi, son yıllarda transformer modelleri üzerine yoğunlaşmış durumda. Bu modeller, büyük dil modellerinin (LLM) temelini oluşturuyor ve çoğu büyük yapay zeka şirketi, insan seviyesinde genel zekaya ulaşmak için bu yönteme odaklanıyor. Ancak bu strateji, gerçekten AGI’ye ulaşmada yeterli olmayabilir.
AGI terimini 2005 yılında kaleme aldığı Artificial General Intelligence kitabıyla popülerleştiren Ben Goertzel, endüstrinin bu yaklaşımını eleştiriyor. Goertzel’e göre, ticari yapay zeka şirketleri sadece GPT benzeri modellerin farklı versiyonlarını geliştirmeye odaklanıyor ve bu kaynak israfı anlamına geliyor. “Bir şey işe yaradığında, herkes o yöntemi ikiye, üçe katlamak istiyor” diyen Goertzel, bu yoğunlaşmanın riskli olduğunu vurguluyor.
Transformer modellerinin eğitimi ve çalıştırılması, milyarlarca dolarlık hesaplama gücü gerektiriyor. Şu ana kadar, daha fazla veri ve hesaplama gücüyle modellerin zekasının arttığı gözlemlense de, bu artışın maliyeti de aynı oranda yükseliyor. Goertzel’e göre, ölçek büyüklüğü tek başına yeterli değil; doğru algoritmalar olmadan AGI’ye ulaşmak mümkün olmayabilir.
Bir diğer önemli sorun ise transformer modellerinin sürekli öğrenme yeteneğinden yoksun olması. İnsanlar gibi yeni deneyimlerden öğrenip içsel parametrelerini güncelleyemeyen bu modeller, her yeni etkileşimde temel parametrelerine geri dönüyor. Bu da onların gerçek anlamda öğrenmesini engelliyor.
Goertzel, Google DeepMind, Microsoft ve Safe Superintelligence gibi şirketlerin alternatif nöral ağ mimarileri üzerinde çalıştığını belirtiyor. Bu mimariler, sürekli öğrenmeyi mümkün kılabilir ve insan seviyesinde genel zekaya daha yakın olabilir. DeepMind’in farklı yapay zeka paradigmaları konusunda geniş bir deneyime sahip olduğunu vurgulayan Goertzel, endüstrinin şu anda daha çok mevcut yöntemleri iyileştirmeye odaklandığını söylüyor.
AGI’nin yakın gelecekte ortaya çıkabileceğine inanan Goertzel, bunun için mevcut büyük dil modellerinin ötesine geçilmesi gerektiğini savunuyor. Bu görüşünü destekleyen bir gelişme de geçtiğimiz hafta Tokyo merkezli Sakana AI’nın duyurduğu Sakana Fugu adlı yeni ürünü oldu.
Sakana AI, 2023 yılında transformer modellerinin dokuz mucitinden biri olan Llion Jones ve eski Google DeepMind araştırmacısı David Ha tarafından kuruldu. Şirketin yeni ürünü Fugu, çoklu ajan orkestrasyon sistemi olarak tasarlandı. Bu sistem, OpenAI, Google ve Anthropic gibi şirketlerin önde gelen temel modellerini koordine ederek daha akıllı ve esnek çözümler sunmayı hedefliyor.