L’intelligenza artificiale sta diventando una presenza sempre più ingombrante nel mondo del lavoro, soprattutto nei processi di assunzione. Per molti lavoratori, rappresenta una minaccia incombente, simile a un asteroide in rotta verso la Terra: nessuno sa con certezza se colpirà o meno, ma la sua sola esistenza genera un clima di incertezza diffusa.

Mentre alcuni esperti dibattono se l’IA automatizzerà tutti i posti di lavoro a vantaggio di pochi privilegiati, altri vivono già le conseguenze concrete di questa rivoluzione. Per molti, infatti, ottenere anche solo un colloquio di lavoro sta diventando un’impresa quasi impossibile. Non si tratta più di una semplice automazione, ma di una vera e propria “enshittificazione” dei processi di selezione, dove la tecnologia sembra trasformare un’opportunità in un ostacolo insormontabile.

Il caso di Chad Markey: un curriculum eccellente, ma nessuna risposta

Un esempio emblematico è quello di Chad Markey, un 33enne prossimo alla laurea in una prestigiosa scuola medica statunitense. Secondo un’inchiesta di Wired, Markey ha subito le conseguenze di un sistema di screening basato sull’IA, che ha compromesso le sue possibilità di essere ammesso a un programma di residenza medica.

Dopo aver inviato 82 domande per il ciclo 2025-2026, Markey si è trovato di fronte a una serie di rifiuti immediati. Nonostante avesse un curriculum di tutto rispetto — laurea in una scuola d’eccellenza, almeno 10 pubblicazioni scientifiche e lettere di raccomandazione entusiastiche da parte dei professori — la sua candidatura è stata penalizzata da un dettaglio apparentemente trascurabile.

Markey aveva richiesto tre congedi durante il percorso universitario a causa di una malattia autoimmune, la spondilite anchilosante, che lo aveva costretto a letto per mesi. Sebbene le assenze fossero state certificate dal punto di vista medico, nel suo curriculum erano state classificate come “volontarie”. Un errore di interpretazione da parte di un sistema di intelligenza artificiale poco accurato potrebbe avere conseguenze devastanti.

“Mi sono trascinato fuori da un fottuto buco nero”, ha dichiarato Markey a Wired. “Non potevo camminare per sei mesi. Sono arrivato fin qui, e ora questo?”

Come l’IA sta cambiando le assunzioni: il caso Cortex

Mentre Markey lottava per ottenere un’opportunità, un software di screening chiamato Cortex stava diventando sempre più popolare tra gli ospedali statunitensi. Questo strumento, sviluppato da Thalamus, analizza automaticamente i documenti delle candidature e li organizza in una dashboard di facile lettura, permettendo ai responsabili delle assunzioni di valutare centinaia di profili in pochi minuti.

Tuttavia, la rapidità e l’efficienza di Cortex nascondono un rischio: la possibilità che errori di interpretazione o bias algoritmici penalizzino candidati meritevoli. Nel caso di Markey, un dettaglio come la classificazione errata delle assenze potrebbe avere fatto la differenza tra un’opportunità e un rifiuto immediato.

Questo episodio solleva una domanda fondamentale: l’IA, invece di semplificare i processi di selezione, sta creando nuove barriere per chi cerca lavoro? E soprattutto, chi è responsabile quando un algoritmo sbaglia?

Le conseguenze per i lavoratori

Il problema non riguarda solo i neolaureati come Markey. Anche i lavoratori disoccupati o in cerca di una nuova opportunità si trovano di fronte a un sistema sempre più opaco, dove le decisioni vengono prese da algoritmi di cui non si conosce il funzionamento interno. In molti casi, i candidati non ricevono nemmeno un feedback sulle ragioni del rifiuto, rendendo impossibile contestare o correggere eventuali errori.

Secondo gli esperti, la soluzione non è demonizzare l’IA, ma migliorare la trasparenza e la responsabilità dei sistemi di selezione. Alcune aziende stanno già adottando misure per mitigare questi rischi, come l’utilizzo di algoritmi supervisionati da umani o la revisione manuale delle candidature più promettenti.

«L’IA può essere uno strumento potente, ma non può sostituire il giudizio umano. È fondamentale che i processi di selezione rimangano equi e trasparenti, soprattutto in un mercato del lavoro già così competitivo».

— Esperto di risorse umane, intervistato da Wired

Cosa possono fare i candidati?

Per chi si trova di fronte a un sistema di selezione basato sull’IA, alcune strategie possono aiutare a mitigare i rischi:

  • Personalizzare il curriculum: evitare formulazioni ambigue che potrebbero essere male interpretate dagli algoritmi.
  • Includere una lettera di presentazione dettagliata: spiegare eventuali lacune o situazioni particolari che potrebbero essere penalizzate.
  • Monitorare le candidature: se possibile, seguire l’andamento delle domande e richiedere feedback in caso di rifiuti ripetuti.
  • Scegliere aziende con processi trasparenti: privilegiare organizzazioni che utilizzano sistemi di selezione basati su criteri chiari e verificabili.

L’IA sta cambiando il modo in cui lavoriamo, ma il suo impatto sulle carriere individuali dipende da come sapremo gestire questa transizione. Senza un controllo umano adeguato, il rischio è quello di creare un sistema ancora più ingiusto di quello attuale.

Fonte: Futurism