L’automazione basata sull’intelligenza artificiale è comunemente associata alla sostituzione di mansioni umane per aumentare produttività ed efficienza, spesso come preludio a licenziamenti di massa. Tuttavia, una ricerca condotta da studiosi di Microsoft e segnalata da IT Pro svela che i modelli AI più avanzati faticano a svolgere compiti lavorativi reali, commettendo errori gravi e frequenti.
Lo studio, ancora in attesa di peer review, ha analizzato modelli di frontiera come GPT 5.4 di OpenAI, Claude Opus 4.6 di Anthropic e Gemini 3.1 Pro di Google. Durante l’esecuzione di incarichi complessi, questi sistemi hanno corrotto in media il 25% dei contenuti nei documenti elaborati, con risultati ancora peggiori per i modelli meno recenti.
I ricercatori hanno concluso che tali modelli «non sono pronti per essere delegati nei flussi di lavoro nella maggior parte dei settori». Una conclusione sorprendente per Microsoft, che ha investito massicciamente nell’AI e sta integrando la tecnologia in ogni aspetto di Windows 11, spesso con risultati disastrosi. Curiosamente, lo studio non ha valutato Copilot, l’AI proprietaria di Microsoft.
In sintesi, i ricercatori di Redmond avevano ogni motivo per enfatizzare i successi dell’AI, ma hanno invece dimostrato che affidarsi ciecamente ai modelli linguistici per gestire documenti interni può portare a errori, perdite di dati e altre problematiche.
L’impatto dell’“AI workslop” sulle aziende
Mentre i dirigenti spingono per sostituire il lavoro umano con l’AI, questa ricerca si aggiunge a una serie di studi sul fenomeno dell’“AI workslop”: un termine che descrive il caos generato da dipendenti che utilizzano l’AI in modo superficiale, producendo risultati inutili o errati che poi devono essere corretti da colleghi più attenti.
Un recente studio di Stanford ha evidenziato come l’AI workslop stia minando la produttività aziendale, costringendo le organizzazioni a dedicare risorse preziose alla correzione di errori evitabili. La tendenza è tanto diffusa quanto pericolosa: l’adozione acritica dell’AI senza una supervisione umana adeguata rischia di generare più problemi di quanti ne risolva.