Il Senato statunitense sta valutando una nuova proposta di legge che introduce controlli di identità online per l'uso di chatbot basati su intelligenza artificiale. Il GUARD Act, promosso dal senatore repubblicano Josh Hawley e co-sponsorizzato dal democratico Richard Blumenthal, ha superato la commissione Giustizia del Senato la scorsa settimana, nonostante le critiche sulla sua portata.
Jibran Ludwig, rappresentante dell'organizzazione Fight for the Future, ha definito il provvedimento «un cavallo di Troia per controlli universali di identità online». La legge richiederebbe agli utenti di fornire una prova di identità per utilizzare chatbot AI e vieterebbe ai minori di interagire con molti di questi strumenti. A differenza di altre proposte di verifica dell'età sui social media, il GUARD Act non prevedrebbe alcuna opzione per i genitori di escludere i propri figli dalle regole imposte dal governo federale.
Nonostante le preoccupazioni espresse da alcuni senatori riguardo alla privacy e ai possibili effetti negativi sugli adolescenti, la commissione ha approvato il provvedimento con una votazione favorevole. Il Hill ha sottolineato come il disegno di legge sia «passato facilmente in commissione», anche se alcuni membri hanno evidenziato criticità.
Sen. Alex Padilla (D-Calif.), che ha votato a favore, ha dichiarato di nutrire dubbi sui «rischi potenziali per privacy e sicurezza» legati alla verifica dell'età, suggerendo che la norma necessiti di «aggiustamenti». Sen. Ted Cruz (R-Texas), sostenitore di diverse leggi sulla sicurezza online per i minori, ha affermato di voler votare a favore ma ha sottolineato la necessità di «alcune revisioni». Cruz ha espresso preoccupazione per un possibile divieto totale dei chatbot AI per i minori, riconoscendo tuttavia i potenziali benefici di questi strumenti.
Hawley ha cercato di rassicurare, affermando che il provvedimento non vieta tutti i chatbot AI per i minori, ma solo quelli che «spingono contenuti sessualmente espliciti, incoraggiano autolesionismo o suicidio». Tuttavia, la formulazione della legge risulta molto più ampia e preoccupante.
Cosa prevede davvero il GUARD Act
Il GUARD Act definisce un chatbot AI come «compagno» qualsiasi sistema che «fornisce risposte adattive e simili a quelle umane agli input dell'utente» e «è progettato per simulare interazioni interpersonali, amicizia, compagnia o comunicazione terapeutica». Secondo la legge, le aziende AI dovrebbero vietare l'accesso ai minori di 18 anni a qualsiasi chatbot AI definito come «compagno».
Questa disposizione va ben oltre il semplice divieto di discussioni su temi sensibili tra adolescenti e chatbot. Il provvedimento rischia di impedire ai giovani di utilizzare strumenti di supporto psicologico, tutor online o assistenti per l'apprendimento delle lingue. La definizione di «chatbot AI» è così ampia da includere anche assistenti virtuali che utilizzano un tono amichevole o familiare, limitando così l'accesso a risorse potenzialmente utili.
Tra i possibili effetti negativi:
- Limitazione dell'accesso a strumenti di supporto psicologico: Alcuni adolescenti potrebbero beneficiare di chatbot AI progettati per fornire supporto emotivo o terapeutico.
- Restrizione dell'apprendimento: L'uso di tutor virtuali o assistenti linguistici potrebbe essere compromesso, limitando le opportunità di formazione per i giovani.
- Rischi per la privacy: L'imposizione di controlli di identità universali solleva dubbi sulla sicurezza dei dati personali degli utenti.
Critici come Ludwig hanno sottolineato che la legge, se approvata, potrebbe rappresentare un precedente pericoloso per la regolamentazione della tecnologia, introducendo controlli invasivi senza garantire una reale tutela dei minori.
«Questa legge non protegge i giovani, ma li isola da strumenti che potrebbero aiutare a navigare le sfide della crescita. È una soluzione mal pensata che rischia di fare più danni che benefici.»
Jibran Ludwig, Fight for the Future