Un algoritmo di Google diffonde accuse infondate
Un uomo dello Utah, Mark Murray, è vittima di un caso senza precedenti: Google AI Overview avrebbe generato autonomamente accuse di reato sessuale, diffondendo informazioni false che hanno distrutto la sua reputazione e la sua vita privata e professionale. La denuncia, depositata ieri presso un tribunale federale, rappresenta un nuovo capitolo nelle controversie legali legate all'intelligenza artificiale e alla diffamazione algoritmica.
Le accuse generate dall'AI
Secondo la documentazione presentata, le false accuse di reato sessuale contro Murray sono apparse solo nei risultati generati da Google AI Overview. A differenza dei casi precedenti, in cui l'errore derivava da informazioni errate diffuse online, in questo caso l'algoritmo avrebbe inventato le accuse ex novo, senza alcun fondamento reale. Questo fenomeno, noto come "hallucination" nell'ambito dell'IA, si verifica quando un modello linguistico genera contenuti plausibili ma del tutto inventati.
Conseguenze devastanti per la vittima
Le ripercussioni per Murray sono state immediate e devastanti. Dopo la pubblicazione delle accuse, l'uomo ha subito un flusso incessante di messaggi ostili, telefonate e persino incontri di persona in cui veniva interrogato o accusato apertamente. Anche la sua cerchia più stretta è stata coinvolta: familiari e amici hanno messo in dubbio il suo carattere basandosi esclusivamente sulle informazioni diffuse da Google. La relazione sentimentale è stata messa a dura prova quando la famiglia del partner ha affrontato Murray, chiedendo spiegazioni sulle presunte accuse.
La vergogna pubblica ha raggiunto livelli insostenibili. Stranieri si sono avvicinati a Murray nei negozi, nelle stazioni di servizio e in altri luoghi pubblici per interrogarlo o insultarlo, etichettandolo come "reo di reati sessuali". Persone che in passato lo trattavano con normalità hanno cambiato atteggiamento, evitandolo o interrompendo ogni contatto. In un caso estremo, persone assunte per le pulizie di casa hanno smesso di lavorare dopo che la madre di uno di loro ha appreso delle accuse, diffondendo la falsa etichetta in tutta la città prima ancora che Murray potesse difendersi.
Un tentativo di difesa inutile
Nonostante Murray abbia cercato ripetutamente di spiegare che le accuse erano completamente false, molti hanno rifiutato di ascoltarlo o, pur ascoltandolo, hanno preferito credere alle informazioni fornite da Google. Le conseguenze si sono estese anche alla sfera professionale: il soggetto ha perso clienti, contratti sono stati annullati e il rischio di fallimento è diventato concreto.
Un precedente pericoloso per l'IA
Questo caso solleva interrogativi critici sul ruolo delle grandi piattaforme tecnologiche e sulla responsabilità delle società che sviluppano modelli di intelligenza artificiale. Secondo gli esperti, i casi di "hallucination" non sono rari, ma la gravità delle accuse generate in questo episodio rappresenta un nuovo livello di rischio per gli individui coinvolti.
La denuncia di Murray contro Alphabet, la società madre di Google, potrebbe segnare un punto di svolta nella regolamentazione dell'IA e nella tutela dei diritti dei cittadini. L'esito di questa vicenda potrebbe influenzare futuri casi simili, spingendo le aziende tecnologiche a implementare controlli più rigorosi sui contenuti generati dai loro algoritmi.
"Questo caso dimostra quanto sia pericoloso affidarsi ciecamente all'intelligenza artificiale senza adeguati meccanismi di verifica. Le conseguenze per gli individui possono essere irreparabili."
Cosa dice la legge?
Gli esperti giuridici sottolineano che, in casi come questo, la responsabilità potrebbe ricadere sia su Google che sul creatore dell'algoritmo. Tuttavia, la normativa attuale fatica a tenere il passo con l'evoluzione tecnologica, lasciando ampi margini di incertezza. La denuncia di Murray potrebbe contribuire a definire nuovi standard di responsabilità per le piattaforme digitali.