Il mese scorso, Axios ha dovuto pubblicare una correzione bizzarra a un articolo che trattava una crescente crisi sanitaria materna negli Stati Uniti. Il pezzo citava nuovi dati di un sondaggio di una società chiamata Aaru, presentandoli come risultati basati sulle opinioni di adulti americani. Tuttavia, una nota editoriale ha rivelato che Aaru è in realtà una società di ricerca che utilizza simulazioni basate sull’IA.

In altre parole, Axios ha diffuso dati di un "sondaggio" non raccolto da persone reali, ma generato da un modello linguistico avanzato. Questo episodio rappresenta un nuovo esempio di come l’IA venga sfruttata in modo inappropriato, anche quando l’applicazione non ha senso.

Secondo Leif Weatherby, direttore del Digital Theory Lab, e Benjamin Recht, professore di scienze informatiche all’Università della California, Berkeley, la pratica che ha ingannato Axios è chiamata ‘silicon sampling’. Gli esperti, in un articolo per il New York Times, la definiscono una ‘ricetta per il disastro’.

«Il principio alla base del silicon sampling è semplice e allettante», scrivono. «Poiché i modelli linguistici avanzati possono generare risposte simili a quelle umane, le società di sondaggi vedono un’opportunità per simulare le risposte a un costo e in un tempo nettamente inferiori rispetto ai metodi tradizionali».

Tuttavia, questo approccio solleva gravi preoccupazioni. I dati prodotti dall’IA hanno valore solo se riflettono le convinzioni e le opinioni di persone reali. «Sostituire le opinioni umane con simulazioni peggiorerà ulteriormente il nostro ecosistema informativo già frammentato e alimenterà la diffidenza», avvertono gli esperti.

I rischi dei sondaggi generati dall’IA

Da tempo, i sondaggisti utilizzano modelli statistici per compensare la scarsità di risposte e correggere possibili distorsioni. Coinvolgere persone tramite telefono o online è infatti una sfida. Ma inventare risposte ex novo tramite IA è un’alternativa pericolosa, che può introdurre bias sistematici e influenzare l’opinione pubblica invece di limitarvisi a riportarla.

Il silicon sampling aggrava ulteriormente il problema, poiché introduce i bias insiti nei modelli di IA. Uno studio del 2025 condotto da ricercatori della Northeastern University ha rilevato che queste simulazioni «non sono affidabili sostituti dei rispondenti umani, soprattutto in contesti politici».

«I modelli faticano a cogliere opinioni complesse e spesso stereotipano gruppi a causa di bias nei dati di addestramento e filtri di sicurezza interni», si legge nello studio. «Pertanto, l’approccio più prudente è una pipeline ibrida: utilizzare l’IA per migliorare la progettazione della ricerca, ma mantenere i campioni umani come standard di riferimento».

Un altro studio, non ancora sottoposto a revisione paritaria, condotto da Jamie Cummins, ricercatore post-dottorato in psicologia all’Università di Berna, ha evidenziato che generare «silicon sample» implica decisioni analitiche complesse che possono alterare significativamente la qualità dei dati. «Anche poche scelte possono modificare drasticamente la corrispondenza tra campioni simulati e dati umani», ha concluso Cummins.

Un fenomeno in crescita, nonostante le critiche

Nonostante le evidenti criticità, aziende come Aaru continuano a proporre questo metodo. La tendenza riflette una corsa all’adozione dell’IA in ogni settore, spesso senza valutarne le conseguenze. Tuttavia, come sottolineano gli esperti, la democrazia dipende da dati affidabili e il ricorso a simulazioni rischia di minare la fiducia nelle istituzioni e nei processi decisionali.

Fonte: Futurism