Eksperyment z fałszywą chorobą ujawnił słabości AI

W 2024 roku zespół badawczy pod kierownictwem Almiry Osmanovic Thunström z Uniwersytetu w Göteborgu postanowił przeprowadzić nietypowy eksperyment. Stworzył on fikcyjną chorobę skórną o nazwie „bixonimania”, której rzekomą przyczyną miało być zbyt długie wpatrywanie się w ekrany i częste pocieranie oczu. Badacze opublikowali dwa fałszywe studia na serwerze preprintów, aby sprawdzić, jak sztuczna inteligencja zareaguje na taką informację.

AI uwierzyło w fikcyjną chorobę

Eksperyment okazał się sukcesem – w zaledwie kilka tygodni czołowe modele AI, takie jak Google Gemini i OpenAI ChatGPT, zaczęły traktować „bixonimanię” jako realną jednostkę chorobową. Co więcej, wkrótce pojawiły się cytowania tej fałszywej publikacji w recenzowanych artykułach naukowych, co pokazuje, jak głęboko AI wkracza w procesy weryfikacji wiedzy.

Jak AI oszukano?

Fałszywe prace zawierały liczne nieprawdopodobne odniesienia, m.in. do „Star Treka”, „Simpsonów” i „Władcy Pierścieni”, które powinny wzbudzić podejrzenia. Mimo to, AI takich jak Microsoft Bing Copilot, Google Gemini i Perplexity uznały chorobę za realną. Nawet ChatGPT początkowo wahał się, ale ostatecznie potwierdził jej istnienie.

Konsekwencje dla nauki i medycyny

Eksperyment odsłonił poważne problemy związane z zaufaniem do treści generowanych przez AI. Coraz więcej publikacji naukowych opiera się na automatycznie tworzonych tekstach, co zagraża rzetelności badań. Ponadto, AI nadal udziela niebezpiecznych porad medycznych, często bez odpowiedniej weryfikacji.

OpenAI, w odpowiedzi na krytykę, stwierdziło, że ich technologia „lepiej radzi sobie z dostarczaniem bezpiecznych i dokładnych informacji medycznych”. Jednak incydent z „bixonimanią” pokazuje, że AI wciąż popełnia poważne błędy.

Reakcja świata nauki

Po ujawnieniu oszustwa, czasopisma naukowe zaczęły wycofywać artykuły, które cytowały fałszywą chorobę. Jeden z redaktorów przyznał, że w publikacji pojawiły się „trzy nieistotne odniesienia, w tym jedno do fikcyjnej choroby”.

Almira Osmanovic Thunström, komentując eksperyment, powiedziała:

„To niepokojące, gdy poważne twierdzenia przechodzą przez literaturę bez żadnej weryfikacji. Myślę, że istnieje wiele innych problemów, które jeszcze nie zostały odkryte.”

Reakcja społeczności internetowej

Użytkownicy forum r/medicine podeszli do sprawy bardzo sceptycznie. Jeden z nich napisał:

„Jesteśmy ugotowani.”

AI a wzrost kosztów opieki zdrowotnej

Problem fałszywych informacji generowanych przez AI wykracza poza badania naukowe. Sztuczna inteligencja przyczynia się również do wzrostu kosztów opieki zdrowotnej, co omówiono w osobnym artykule.

Źródło: Futurism