L’uso dell’intelligenza artificiale come strumento didattico continua a dividere gli esperti. Nonostante alcune ricerche suggeriscano rischi per il pensiero critico e la memoria degli studenti, uno studio promosso come prova dei vantaggi di ChatGPT nell’apprendimento è stato recentemente ritirato, gettando ombre sulla validità delle ricerche sull’AI in classe.

Uno studio promettente, poi ritirato

Pubblicato sulla rivista Nature, lo studio affermava che l’uso di ChatGPT da parte degli studenti avrebbe avuto un «impatto positivo significativo» sulle performance di apprendimento e un «impatto moderatamente positivo» sulla percezione dell’apprendimento e sul pensiero di livello superiore. Gli autori concludevano che ChatGPT dovesse essere «integrato attivamente in diverse modalità di apprendimento», soprattutto in contesti basati su problemi.

Tuttavia, quasi un anno dopo la pubblicazione, lo studio è stato ritirato senza cerimonie da Springer Nature, la casa editrice della rivista. Nella nota di ritrazione, pubblicata lo scorso mese, si legge che le «preoccupazioni relative a discrepanze» hanno minato la fiducia nella validità dell’analisi e delle conclusioni. Una battuta d’arresto per chi sostiene l’uso dell’AI nell’istruzione.

Le critiche degli esperti

Ben Williamson, docente senior presso il Centre for Research in Digital Education e l’Edinburgh Futures Institute dell’Università di Edimburgo, ha sottolineato come lo studio avesse attirato l’attenzione per le sue affermazioni sull’efficacia di ChatGPT nell’apprendimento. «Molti hanno considerato questo lavoro come una delle prime prove solide e affidabili dei benefici dell’AI generativa per gli studenti», ha dichiarato a Ars Technica.

Tuttavia, lo studio non era una ricerca sperimentale, bensì una meta-analisi che sintetizzava i risultati di 51 studi esistenti sul tema, confrontando gli effetti cognitivi tra studenti che utilizzavano ChatGPT e quelli che non lo facevano. Come hanno evidenziato diversi commentatori ed esperti, questa metodologia presentava già dei limiti fondamentali. «Non è realistico pensare che decine di studi di alta qualità su ChatGPT e le performance di apprendimento potessero essere stati condotti, revisionati e pubblicati in così poco tempo», ha spiegato Williamson.

In alcuni casi, la meta-analisi sembra aver incluso studi di scarsa qualità o aver confrontato ricerche con metodologie, popolazioni e campioni troppo diversi per essere paragonabili. «Era un lavoro che, in realtà, non avrebbe dovuto essere pubblicato», ha aggiunto l’esperto.

L’AI nell’istruzione: tra promesse e controversie

La retrazione dello studio arriva in un momento in cui l’industria dell’AI sta spingendo per un’adozione sempre più massiccia nella didattica. Aziende come OpenAI, Anthropic e Microsoft hanno stretto partnership con scuole e università per fornire accesso gratuito ai propri strumenti AI, anche in versioni personalizzate per istituti specifici. Inoltre, hanno investito milioni di dollari nei sindacati degli insegnanti per formarli all’uso dei modelli di intelligenza artificiale.

Alcune istituzioni, come la Ohio State University, hanno addirittura reso obbligatorio un corso di «alfabetizzazione AI» per tutti gli studenti di ogni corso di laurea. Una scelta che, tuttavia, non convince tutti: molti docenti segnalano un aumento delle frodi grazie all’uso dell’AI, oltre a preoccupazioni per la qualità dell’apprendimento e la dipendenza dagli strumenti automatizzati.

Le domande senza risposta

La retrazione dello studio solleva interrogativi sulla solidità delle ricerche sull’AI in ambito educativo. Se anche una pubblicazione su una rivista autorevole come Nature può essere ritirata per discrepanze, quanto sono affidabili le altre ricerche che sostengono i benefici dell’AI nella didattica? E quali sono i reali rischi per gli studenti che utilizzano questi strumenti?

Gli esperti invitano alla prudenza e a una valutazione più rigorosa prima di integrare l’AI nei percorsi formativi. «L’entusiasmo per l’AI non deve farci dimenticare l’importanza di basare le decisioni educative su prove solide e verificabili», ha concluso Williamson.

Fonte: Futurism