Quando l’IA sbaglia: due casi emblematici
Il 20 ottobre 2025, a Baltimora, Taki Allen, 17 anni, era seduto fuori dalla sua scuola dopo l’allenamento di football quando una telecamera di sorveglianza potenziata da intelligenza artificiale identificò erroneamente la busta di Doritos nella sua tasca come una pistola. In pochi minuti, le auto della polizia arrivarono, gli agenti estrassero le armi e Allen fu costretto in ginocchio e ammanettato mentre lo perquisivano. L’unica cosa trovata fu una busta di patatine sgualcita.
Il 24 dicembre 2025, Angela Lipps, una nonna del Tennessee, è stata scarcerata dopo cinque mesi di carcere. Il motivo? Un software di riconoscimento facciale l’aveva erroneamente collegata a reati di frode in Nord Dakota, uno stato che non aveva mai visitato. Gli agenti l’avevano arrestata sotto la minaccia delle armi mentre faceva da babysitter ai suoi quattro nipoti.
Questi due episodi rappresentano solo alcuni esempi di come l’IA possa portare a trattamenti ingiusti nei confronti delle persone, a causa di errori tecnici e di una fiducia eccessiva nella presunta oggettività di queste tecnologie. Sebbene i casi coinvolgano strumenti diversi, il problema di fondo è lo stesso: l’IA produce probabilità, ma le persone le trattano come certezze assolute.
Dalla probabilità all’azione: il rischio dell’errore umano
Noi siamo ricercatori che studiano l’intersezione tra tecnologia, diritto e pubblica amministrazione. Analizzando come i dipartimenti di polizia utilizzano l’IA e come le tecnologie digitali operano in una società democratica, abbiamo osservato quanto rapidamente si passi dalla previsione probabilistica alla certezza operativa nella pratica.
Strumenti di polizia basati su IA sono utilizzati in decine di città statunitensi, anche se non esiste un registro pubblico che ne tracci l’intera diffusione. Questi sistemi analizzano dati storici sulle attività criminali e assegnano punteggi di rischio ai quartieri, indirizzando gli agenti verso le cosiddette "zone calde". Il meccanismo sembra semplice, ma le conseguenze non lo sono affatto.
Quando un sistema segnala una possibile minaccia, la domanda non è più quanto sia affidabile la previsione, ma cosa fare al riguardo. Una valutazione statistica si trasforma in una decisione operativa, e l’incertezza che l’ha generata viene spesso dimenticata lungo il percorso.
L’IA non è un database: il problema delle risposte probabilistiche
Quando modelli di IA generativa come ChatGPT o Claude rispondono a una domanda, non stanno consultando una base di dati per estrarre fatti. Generano invece la risposta più probabile in base ai pattern dei dati su cui sono stati addestrati. Se si chiede "Chi ha inventato la lampadina?", il modello potrebbe rispondere "Thomas Edison", ignorando il contributo parallelo di Joseph Swan.
Il pericolo sorge quando le persone credono che il modello stia recuperando verità assolute, invece di generare probabilità. Questa distinzione è fondamentale. Una risposta statisticamente probabile non è la stessa cosa di un dato verificato, completo di contesto.
Nel caso di Taki Allen, gli agenti hanno agito sulla base di un errore dell’IA, trattando una probabilità come una certezza. Questo approccio può avere conseguenze devastanti, soprattutto quando si tratta di libertà individuali e diritti civili.
Le conseguenze per la giustizia e la sicurezza pubblica
L’uso dell’IA nei sistemi di polizia solleva questioni etiche e giuridiche complesse. Quando un algoritmo sbaglia, chi ne è responsabile? Gli sviluppatori del software, gli agenti che hanno fatto affidamento sulla sua previsione, o il sistema giudiziario che accetta prove basate su tali tecnologie?
Inoltre, l’affidamento eccessivo su questi strumenti rischia di rafforzare pregiudizi esistenti. Se i dati storici utilizzati per addestrare l’IA sono viziati da discriminazioni, anche le previsioni del sistema lo saranno. Questo può portare a un circolo vizioso di sorveglianza e arresti sproporzionati in comunità già marginalizzate.
Verso una regolamentazione più rigorosa
Per mitigare questi rischi, è necessario un approccio più trasparente e responsabile all’uso dell’IA nella pubblica sicurezza. Alcune misure potrebbero includere:
- La creazione di un registro pubblico che tracci l’utilizzo di questi strumenti da parte delle forze dell’ordine;
- L’obbligo di audit indipendenti per valutare l’accuratezza e i bias dei sistemi;
- Formazione specifica per gli agenti sull’interpretazione corretta dei dati forniti dall’IA;
- Meccanismi di ricorso rapidi ed efficaci per le persone erroneamente identificate o arrestate.
Senza queste garanzie, il rischio è che l’IA diventi uno strumento di controllo sociale piuttosto che uno strumento di giustizia. La tecnologia può essere un alleato prezioso, ma solo se utilizzata con consapevolezza, trasparenza e responsabilità.
«L’IA non è neutrale. I suoi errori non sono casuali, ma riflettono i dati e le decisioni umane che l’hanno generata. Affidarsi ciecamente a questi sistemi significa delegare la giustizia a un algoritmo, non alla legge.»