Se tu o qualcuno che conosci state attraversando una crisi di salute mentale, contattate il 988 Suicide & Crisis Lifeline chiamando o inviando un SMS al numero 988.
Vince Lahey, residente a Carefree, in Arizona, si affida ai chatbot per condividere pensieri e preoccupazioni. «Da quelli sviluppati dalle grandi aziende tecnologiche a quelli meno affidabili, questi strumenti mi offrono uno spazio dove posso confidare segreti che non condividerei nemmeno con il mio terapeuta» racconta. «Mi sento più libero di aprirmi, senza preoccuparmi del giudizio altrui». Anche se a volte i chatbot lo rimproverano o lo portano a litigare con la sua ex moglie, Lahey continua a preferirli per il loro supporto immediato e la loro disponibilità 24 ore su 24.
La sua non è un’esperienza isolata. La domanda di servizi di salute mentale è in costante aumento: secondo uno studio che analizza dati raccolti dal 1990 a oggi, i giorni di cattiva salute mentale auto-riferiti sono cresciuti del 25%. I dati dei Centri per il Controllo e la Prevenzione delle Malattie statunitensi (CDC) mostrano che nel 2022 i tassi di suicidio hanno raggiunto livelli non visti da quasi 80 anni, pari al picco del 2018.
In questo contesto, molti pazienti trovano nei terapeuti artificiali — alimentati dall’intelligenza artificiale — un’alternativa più attraente rispetto alla terapia tradizionale, con il suo divano reclinabile e un atteggiamento spesso severo. I social media pullulano di richieste di terapeuti «sempre disponibili», meno giudicanti o più economici. Tuttavia, secondo Tom Insel, ex direttore del National Institute of Mental Health, la maggior parte delle persone che necessitano di cure non riesce ad accedervi. «Il 40% di chi riceve assistenza riceve una terapia di qualità minima» afferma. «Siamo in un mondo in cui lo status quo è davvero scadente, per usare un termine scientifico».
Insel ha rivelato che, nell’autunno dello scorso anno, ingegneri di OpenAI gli hanno comunicato che tra gli 800 milioni di utenti di ChatGPT, tra il 5% e il 10% lo utilizzava per supporto psicologico. Le indagini suggeriscono che i chatbot di intelligenza artificiale siano ancora più popolari tra i giovani adulti: un sondaggio KFF ha rilevato che circa 3 giovani su 10, di età compresa tra i 18 e i 29 anni, si sono rivolti a questi strumenti per consigli di salute mentale o emotiva nell’ultimo anno. Gli adulti non assicurati hanno dichiarato di utilizzare strumenti di intelligenza artificiale quasi il doppio rispetto a quelli con copertura sanitaria. Inoltre, quasi il 60% degli adulti che hanno usato un chatbot per la salute mentale non ha poi cercato un professionista in carne e ossa.
Le app che promettono terapia: tra promesse e limiti
Un fiorente settore di applicazioni offre ora terapeuti virtuali dotati di avatar umani, spesso attraenti, che fungono da punto di riferimento per chi soffre di ansia, depressione o altri disturbi. Secondo una ricerca di KFF Health News, a marzo erano già 45 le app di terapia basate sull’IA disponibili sull’Apple App Store. Molte di queste applicazioni applicano tariffe elevate — una, ad esempio, propone un abbonamento annuale da 690 dollari — ma restano comunque più accessibili della terapia tradizionale, che può arrivare a costare centinaia di dollari all’ora senza copertura assicurativa.
Sull’App Store, il termine «terapia» viene spesso usato come strategia di marketing, con avvertenze in piccolo che specificano come queste app non possano diagnosticare o trattare patologie. Una di queste applicazioni, OhSofia! AI Therapy Chat, ha raggiunto centinaia di migliaia di download a dicembre, come dichiarato dal suo fondatore Anton Ilin. «Le persone cercano terapia» ha affermato Ilin. «E noi cerchiamo di offrire uno strumento che risponda a questa esigenza».
I rischi e le sfide dell’IA in ambito psicologico
Nonostante l’entusiasmo, l’uso di chatbot per la salute mentale solleva diverse preoccupazioni. Innanzitutto, la mancanza di regolamentazione: molte di queste applicazioni non sono supervisionate da professionisti sanitari e potrebbero fornire consigli inaccurati o dannosi. Inoltre, la privacy dei dati rimane un tema critico: gli utenti spesso condividono informazioni sensibili, ma non sempre sono consapevoli di come vengano gestite o utilizzate dalle aziende.
Un altro limite è la capacità di comprensione del contesto emotivo. Anche se l’IA è in grado di riconoscere parole chiave e fornire risposte preimpostate, spesso manca della profondità e dell’empatia di un terapeuta umano. «L’intelligenza artificiale può essere uno strumento utile, ma non può sostituire completamente l’interazione umana» spiega un esperto del settore. «La terapia è un processo complesso che richiede empatia, intuizione e una relazione di fiducia».
Nonostante queste criticità, l’adozione di chatbot terapeutici continua a crescere, soprattutto tra chi cerca un supporto immediato e a basso costo. Per molti, rappresentano una soluzione temporanea o complementare alla terapia tradizionale, mentre per altri potrebbero diventare una scelta definitiva. Resta da vedere se, in futuro, queste tecnologie potranno evolversi per offrire un supporto più sicuro, efficace e personalizzato.