«Non leggo più le email, chiaro?» recita ironicamente MyTechCeo, il personaggio satirico interpretato da Jason Yeager, fondatore di un’azienda tech e creatore di contenuti, in un recente video su TikTok. «Voglio che l’IA legga la mia email generata dall’IA e risponda al posto mio». È una parodia, ma solo in parte. L’uso dell’IA per scrivere email è ormai una realtà in molti settori lavorativi.
Già a ottobre, Ryan Roslansky, CEO di LinkedIn, aveva dichiarato di utilizzare l’intelligenza artificiale per quasi tutte le email «ad alto rischio» che invia. Secondo un recente sondaggio condotto da ZeroBounce, azienda specializzata in verifica delle email, un lavoratore su quattro ammette di usare l’IA quotidianamente per redigere o modificare i propri messaggi professionali. Su Reddit, poi, non mancano le testimonianze di dipendenti che denunciano capi che «rispondono a tutte le email con l’IA e nessuno se ne accorge» o che «comunicano solo tramite messaggi generati dall’IA, e questo mi sta causando ansia».
In un contesto lavorativo incerto, la soluzione più immediata sembra essere quella di fare come loro: inserire il messaggio in un chatbot, modificare la risposta ottenuta e inviarla. Ma se ricevete una comunicazione che potrebbe essere stata scritta dall’IA, soprattutto durante una discussione, qualcosa non va. Il testo risulta troppo perfetto, il tono è equilibrato e ragionevole, ma manca qualcosa: la voce di chi vi sta scrivendo. Un indizio ancora più chiaro? La presenza di prompt residui nel testo finale.
Sebbene le email scritte con l’IA possano sembrare più fluide e professionali, gli esperti mettono in guardia: affidarsi esclusivamente a questi strumenti per gestire conversazioni complesse rischia di compromettere la fiducia e le relazioni all’interno dei luoghi di lavoro. Quando si chiede a un chatbot di riscrivere un messaggio per renderlo più «conciso» o «professionale», infatti, si rischia di eliminare anche la componente emotiva dell’interazione, un aspetto fondamentale per il futuro del lavoro.
L’IA come allenatore o come sostituto?
Alcuni studi suggeriscono che «praticare» conversazioni difficili con un’IA prima di affrontarle di persona può aiutare a guadagnare sicurezza. In questo caso, l’IA funziona come un allenatore, non come un sostituto. Tuttavia, quando viene usata in modo sistematico per evitare il confronto diretto, il risultato è opposto: crea distanza e indebolisce le capacità umane di comunicare efficacemente.
Questo fenomeno, che Leena Rinne, vicepresidente per leadership, business e coaching presso Skillsoft, definisce «scarico sociale», è particolarmente pericoloso quando a farne uso sono i leader aziendali. Secondo Rinne, infatti, «l’IA si occupa della conversazione difficile, ma l’essere umano non sviluppa mai la capacità di gestirla in prima persona». Il rischio non è solo che l’interazione sembri artificiale, ma che venga compromessa la fiducia tra le parti.
«Quando un leader delega completamente all’IA la gestione di un dialogo complesso», spiega Rinne, «sta regredendo nella sua capacità di affrontare situazioni simili in futuro. Non è più in grado di essere presente e di comunicare in modo efficace, una competenza fondamentale per chi ricopre ruoli di responsabilità».
Il problema, insomma, riguarda tutti: il capo non impara a comunicare meglio, e i collaboratori perdono la fiducia in un sistema di relazioni che dovrebbe essere basato sulla trasparenza e sull’autenticità.
Il futuro del lavoro: più tecnologia, meno umanità?
L’adozione massiccia dell’IA nella comunicazione professionale solleva una domanda cruciale: stiamo sacrificando l’umanità a favore dell’efficienza? Secondo gli esperti, la risposta è sì, almeno in parte. L’IA può essere uno strumento utile per ottimizzare processi ripetitivi, ma quando si tratta di gestire emozioni, conflitti o relazioni complesse, il fattore umano rimane insostituibile.
Le aziende che vogliono promuovere creatività, collaborazione e relazioni solide tra i dipendenti dovrebbero riflettere attentamente sull’uso dell’IA. Affidarsi esclusivamente a strumenti automatizzati per la comunicazione non solo rischia di indebolire le competenze sociali, ma può anche minare la cultura aziendale, rendendo i luoghi di lavoro meno umani e più distanti.
«L’IA può essere un alleato prezioso, ma non può sostituire il dialogo umano. Le conversazioni difficili sono un’opportunità per costruire fiducia e rafforzare i rapporti. Se le affidiamo all’IA, perdiamo questa possibilità».