La Camera dei rappresentanti del Colorado ha recentemente approvato la House Bill 26-1263, una legge che introduce nuove regole per i chatbot basati sull'intelligenza artificiale. Il provvedimento, ora in attesa di ulteriori passaggi legislativi, mira a garantire maggiore trasparenza e sicurezza per gli utenti che interagiscono con questi strumenti digitali.
Secondo la normativa, i chatbot dovranno esplicitamente comunicare agli utenti di non essere persone reali, ma sistemi automatizzati. Una disposizione che risponde alla crescente diffusione di assistenti virtuali in ambiti come assistenza clienti, salute e supporto psicologico, dove la distinzione tra interazione umana e artificiale può risultare ambigua.
La legge impone inoltre alle aziende di adottare misure di sicurezza specifiche in caso di segnalazioni di pensieri suicidi o comportamenti autolesionistici da parte degli utenti. Inoltre, viene vietato categoricamente ai chatbot di fornire consulenze mediche o psicologiche, una decisione che riflette le preoccupazioni riguardo alla responsabilità e all'affidabilità delle risposte generate dall'AI in ambiti così delicati.
«Il divario normativo attuale non tutela adeguatamente gli utenti, poiché i sistemi di intelligenza artificiale non sono soggetti agli stessi obblighi legali di protezione delle persone reali», ha dichiarato Rep. Sean Camacho (D–Denver), primo firmatario del provvedimento. «Questa legge colma una lacuna critica, garantendo che chiunque utilizzi un chatbot sia consapevole della natura artificiale dello strumento e riceva risposte sicure e appropriate».
Il provvedimento si inserisce in un dibattito più ampio sulla regolamentazione dell'AI, con diversi stati e paesi che stanno valutando misure simili per proteggere i cittadini da potenziali rischi derivanti dall'uso di tecnologie non regolamentate. La House Bill 26-1263 rappresenta un primo passo verso una maggiore responsabilizzazione delle aziende che sviluppano e distribuiscono chatbot, imponendo standard di trasparenza e sicurezza finora assenti.