Da vent’anni sviluppo software di automazione per le imprese più grandi al mondo. Ho visto migliaia di modelli di intelligenza artificiale in azione, non su dataset di laboratorio, ma su dati reali: fatture, contratti, documenti contabili. Eppure, nonostante i progressi straordinari dell’IA, rimane un problema irrisolto che dovrebbe preoccupare molto più della capacità di risolvere equazioni di livello olimpico: le AI non leggono le fatture in modo affidabile.

Il dubbio non è accademico. Perché se un modello non riesce a estrarre un semplice totale da una fattura, come possiamo fidarci che gestisca correttamente procedure critiche come la revisione di richieste di risarcimento, la conformità normativa o l’analisi di documenti finanziari?

Matematica vs. percezione: dove l’IA eccelle e dove fallisce

La risposta più diffusa a questo problema è che la matematica è un compito di ragionamento, mentre l’analisi di una fattura è un compito di percezione: layout disordinati, scansioni di bassa qualità, caratteri illeggibili. Secondo questa logica, basterebbe aspettare un’altra generazione di modelli per risolvere tutto. Ma questa convinzione è sbagliata.

Partiamo dalla matematica. Quando un’IA risolve un problema di livello olimpico, sembra che stia ragionando. In realtà, la matematica competitiva si basa su un numero limitato di tecniche di dimostrazione (forse poche centinaia) che si ripetono in combinazioni diverse. Un problema apparentemente nuovo è solo una nuova combinazione di blocchi già noti. L’IA, avendo analizzato migliaia di dimostrazioni durante l’addestramento, impara a ricombinarli in modo efficace. Potremmo definirlo pattern matching compositivo.

Gli scacchi rappresentano l’opposto. Ogni posizione intermedia in una partita seria è unica nel senso più profondo: conoscere tutti i pattern e le idee tattiche non basta per sapere se un sacrificio è vincente. L’unico modo per saperlo è calcolare le linee concrete. Gli engine scacchistici hanno risolto questo problema non rendendo la rete neurale più grande, ma costruendo un sistema intorno ad essa. E questa distinzione conta più di quanto molti credano.

Dove si nasconde il vero rischio

La maggior parte dei lavori d’ufficio assomiglia al problema matematico, non a quello degli scacchi. Processare richieste di risarcimento, verificare la conformità, esaminare documenti per i prestiti: si tratta di applicare regole note a casi nuovi. Un’IA può gestire l’85-95% del volume, e questo è già un risultato importante. Ma è il restante 5-15% a rappresentare il vero pericolo.

Questi sono i casi in cui il pattern non corrisponde a quelli visti durante l’addestramento. Il problema? L’IA non sa di essere in difficoltà. Fornisce una risposta sicura, anche quando è sbagliata. Per anni abbiamo testato modelli di IA sull’estrazione di dati da documenti. Non casi limite, ma fatture reali. Il compito più semplice: leggere un valore e inserirlo nel campo corretto. Nessun ragionamento, nessuna valutazione. Solo lettura.

Nemmeno i modelli più avanzati raggiungono il 100% di accuratezza. Un operatore umano meno esperto ci riesce. Ricordo ancora quando abbiamo capito per la prima volta la portata del problema. All’inizio abbiamo pensato fosse un difetto del nostro sistema. Non lo era. Abbiamo testato diversi modelli. Il risultato era lo stesso. E questo mi ha colpito profondamente: non serve arrivare alla parte difficile del processo, alle eccezioni o ai giudizi complessi, per trovare un fallimento dell’IA.

Un problema che non si risolve aspettando

Affidarsi esclusivamente all’IA per compiti critici come l’estrazione dati dalle fatture significa accettare un margine di errore inaccettabile. Le aziende non possono permettersi di scoprire troppo tardi che un modello ha letto male un importo, con conseguenze su bilanci, compliance o relazioni con i clienti.

La soluzione non è aspettare che i modelli diventino più potenti. È necessario integrare l’IA con sistemi di controllo umani, validazione incrociata e procedure di verifica automatica. Solo così si può mitigare il rischio insito in quel 5-15% di casi in cui l’IA, per quanto avanzata, non è affidabile.

Perché, alla fine, un’IA che non sa leggere una fattura è come un chirurgo che non sa usare il bisturi: può avere tutte le competenze teoriche del mondo, ma senza l’abilità pratica, è inutile.