Google affronta le crescenti pressioni per assumersi maggiori responsabilità riguardo agli impatti sulla salute mentale dei suoi prodotti basati sull’intelligenza artificiale. In questo contesto, Megan Jones Bell, direttrice clinica dell’azienda, ha evidenziato l’importanza di rendere l’IA uno strumento utile per chi si rivolge al chatbot Gemini in momenti di crisi psicologica.

«A volte può sembrare che bloccare una funzione sia la soluzione per prevenire danni», ha dichiarato Jones Bell a STAT. «Tuttavia, noi crediamo che rendere l’esperienza del prodotto più sicura, utile e rafforzare il ponte verso il supporto sia la strada più efficace per aiutare il maggior numero di persone».

Per rispondere a questa esigenza, Google ha recentemente aggiornato l’app Gemini, integrando in modo più visibile i collegamenti alle linee di aiuto per la crisi quando rileva un possibile rischio di autolesionismo. Durante le conversazioni su temi di salute mentale, l’IA indirizza gli utenti verso risorse esterne, ma non abbandona il dialogo: ad esempio, ricorda all’utente che «sono qui per ascoltare».