Lo studio che svela la nostra (mancata) diffidenza verso l’IA
Due nuovi esperimenti condotti su oltre 1.300 persone negli Stati Uniti hanno dimostrato che la maggior parte dei partecipanti non sospetta che un messaggio personale possa essere stato scritto da un’intelligenza artificiale, anche quando loro stessi utilizzano frequentemente questi strumenti. La ricerca, pubblicata recentemente, ha analizzato come le persone giudicano gli altri in base ai testi che ricevono nell’era di strumenti come ChatGPT.
Come è stata strutturata la ricerca
I partecipanti, di età compresa tra i 18 e gli 84 anni, sono stati divisi in quattro gruppi. A ciascuno sono stati mostrati messaggi personali generati dall’IA, come una scusa inviata via email. I gruppi ricevevano informazioni diverse sull’autore del testo:
- Gruppo 1: Nessuna informazione sull’autore (come avviene nella vita quotidiana).
- Gruppo 2: Informati che il messaggio era scritto da un essere umano.
- Gruppo 3: Informati che il messaggio era generato dall’IA.
- Gruppo 4: Informati che l’autore poteva essere sia umano che IA.
I risultati hanno evidenziato una penalizzazione per la trasparenza sull’IA. Quando i partecipanti sapevano che un messaggio era stato scritto dall’IA, lo giudicavano in modo molto più negativo rispetto a quando credevano che fosse stato scritto da una persona. Le etichette associate all’IA includevano termini come "pigro", "insincero" o "senza impegno", mentre i messaggi umani venivano descritti come "genuini", "grati" o "attenti".
Tuttavia, il dato più sorprendente è emerso dal gruppo che non riceveva alcuna informazione sull’autore: i partecipanti hanno formulato giudizi positivi, identici a quelli del gruppo che credeva di leggere un messaggio umano. Questo suggerisce una mancanza totale di diffidenza verso l’IA, anche quando i testi sono personalizzati e dettagliati.
L’uso dell’IA da parte dei partecipanti non cambia le percezioni
I ricercatori hanno ipotizzato che la mancanza di diffidenza potesse dipendere dal fatto che i partecipanti non fossero abituati all’IA o non la utilizzassero spesso. Tuttavia, anche testando l’impatto dell’uso personale dell’IA, i risultati sono stati sorprendenti:
- Le persone che utilizzano l’IA generativa almeno ogni due giorni penalizzavano leggermente meno l’uso dell’IA quando la sua autorialità era dichiarata, rispetto a chi non la utilizzava mai o raramente.
- Tuttavia, nessun gruppo — né i forti utilizzatori, né i moderati o i non utilizzatori — mostrava diffidenza di default. Quando l’autore non veniva specificato, tutti assumevano che il messaggio fosse stato scritto da una persona, indipendentemente dal proprio livello di familiarità con l’IA.
Perché questo studio è importante
La mancanza di diffidenza verso l’IA e l’assenza di giudizi negativi hanno implicazioni sociali profonde. Nella vita quotidiana, le persone giudicano gli altri in base ai messaggi che ricevono, attribuendo valore alla sincerità, all’autenticità e alla competenza di chi scrive. Queste percezioni influenzano le decisioni in ambiti come le amicizie, le relazioni di coppia e il lavoro.
Lo studio rivela però una profonda discrepanza: le persone non sospettano l’uso dell’IA a meno che non sia esplicitamente dichiarato. Questo crea un dilemma morale:
Chi utilizza l’IA in segreto può godere dei vantaggi senza rischiare di essere scoperto, mentre chi dichiara apertamente il proprio uso subisce una penalizzazione reputazionale.
Nel lungo periodo, questa mancanza di consapevolezza potrebbe cambiare il significato stesso della scrittura nella vita quotidiana, alterando le aspettative sociali e le dinamiche di fiducia.
Le domande aperte
I ricercatori si interrogano sulle ragioni di questa mancanza di diffidenza. È possibile che le persone non siano ancora consapevoli delle capacità dell’IA attuale, che può produrre messaggi dettagliati e personalizzati? O forse l’uso diffuso dell’IA ha normalizzato la sua presenza al punto da renderla invisibile? Queste domande aprono la strada a ulteriori studi su come l’IA stia trasformando le nostre interazioni sociali.