Yapay Zekanın Tıbbi Tavsiyeleri: Güvenilir mi?
Son araştırmalar, milyonlarca Amerikalının doktorlara başvurmak yerine yapay zeka sohbet robotlarından tıbbi tavsiye aldığını ortaya koydu. Bu durum, büyük dil modellerine dayalı araçların ciddi kusurları olduğu gerçeğiyle çelişiyor. Bu araçlar, tıbbi kayıt özetleri sunma ve basit metin komutlarına dayalı sağlık önerileri verme iddiasında bulunuyor.
Yapay Zekanın Temel Sorunları
Yapay zeka modellerinin en büyük sorunlarından biri, halüsinasyonlar olarak adlandırılan durumdur. Bu modeller, kendilerine sunulmayan görüntülere dayalı ayrıntılı klinik bulgular üretebiliyor veya araştırmacılar tarafından uydurulan sahte hastalıkları gerçekmiş gibi sunabiliyor. Bu durum, hastaların, sağlık hizmeti sağlayıcıların ve sistemlerin yapay zekayı kullanıp kullanmaması gerektiği konusunda bilim insanlarını endişelendiriyor.
Nature Medicine dergisinde yayınlanan sert bir makale, yapay zeka araçlarının hastalara, sağlık hizmeti sağlayıcılarına veya sağlık sistemlerine gerçek bir değer katıp katmadığına dair kanıtların yetersiz olduğunu vurguluyor. Makalede şu ifadelere yer veriliyor:
"Yapay zeka araçlarının klinik etki yarattığına dair kanıtlar son derece nadirdir. Buna rağmen yayınlarda ve ürün materyallerinde klinik etki iddiaları giderek artmaktadır. Ancak bu iddiaların ne düzeyde kanıt gerektirdiği konusunda net bir anlaşma bulunmamaktadır. Sonuç olarak, sadece bilimsel belirsizlik değil, aynı zamanda erken uygulama ve benimseme sorunları ortaya çıkmaktadır."
Gerçek Dünya Koşullarında Yapay Zeka
Yapay zeka araçları, kontrollü deney ortamlarında ikna edici tıbbi tavsiyeler sunabilirken, gerçek dünya koşullarında zorluklarla karşılaşıyor. JAMA Medicine dergisinde yayınlanan bir araştırmaya göre, belirsiz semptomlar sunulduğunda, önde gelen yapay zeka modelleri doğru tanı koyma başarısını %80'in üzerinde kaybediyor.
Klinik Araştırmalarda Yapay Zeka Kullanımı Tartışmalı
Büyük dil modelleri (LLM'ler), veri özetleme ve analiz konusunda uzmanlaşmış olsa da, araştırmacılar bu araçların ciddi sınırlamalarına dikkat çekiyor. Harvard Tıp Fakültesi cerrahi yardımcı doçenti Jamie Robertson, konuyla ilgili geçen yıl yaptığı açıklamada şunları söyledi:
"Yapay zeka, sıkıcı ve zor süreçleri hızlandırmamıza yardımcı olabilir. Veri analizi için kod önerileri sunabilir ve senaryolar oluşturabilir. Ancak klinik çalışmalarda yapay zeka ile etkileşime girenlerin, doğru ve yanlış uygulamaları ve doğru bağlamı bilmesi kritik öneme sahiptir."
Uzmanlar, yapay zeka araçlarına aşırı güvenmenin bilimsel titizliği zedeleyebileceği ve tıbbi alanda genelleştirilmiş ya da hayali verilerin yaygınlaşmasına yol açabileceği konusunda uyarıyor. İsveç'in Gothenburg Üniversitesi'nden araştırmacı Almira Osmanovic Thunström, yaptığı ilginç bir deneyde, iki sahte çalışmayı bir ön baskı sunucusuna yükleyerek büyük dil modellerini kandırmaya çalıştı. Sonuç olarak, diğer hakemli dergilerin bu sahte çalışmaları kaynak göstererek yayınlaması, verilerin geçerliliği konusunda ciddi soru işaretleri ortaya çıkardı.
Yapay Zekanın Geleceği: Daha İyi Modeller ve Yeni Uygulamalar
Uzmanlar, yapay zekanın tıbbi alandaki ilerlemesinin, sadece daha iyi modeller ve yeni uygulamalar geliştirmekle değil, aynı zamanda daha sıkı değerlendirme çerçevelerinin oluşturulmasıyla mümkün olabileceğini belirtiyor. Nature Medicine dergisindeki makale, yapay zeka tıbbi teknolojilerinin nasıl değerlendirilmesi gerektiği, hangi ölçütlerin kullanılacağı ve hangi standartlara karşı ölçülmesi gerektiği konusunda acilen bir çerçeveye ihtiyaç olduğunu vurguluyor.