L’intelligenza artificiale non si limita a chatbot e generatori di meme. Secondo uno studio pubblicato sulla rivista Science, può trasformarsi in una fonte inesauribile di disinformazione, pronta a essere sfruttata da chiunque abbia accesso a queste tecnologie.
La ricerca analizza la capacità di modelli linguistici avanzati (LLM) e agenti autonomi di manipolare l’opinione pubblica su larga scala. Gli studiosi mettono in guardia contro lo sviluppo di sciami di IA: reti massive di strumenti autonomi in grado di replicare comportamenti umani su internet e social media, infiltrando comunità e diffondendo consenso artificiale.
Dalla manipolazione sui social alle elezioni sotto attacco
I dati raccolti dagli autori mostrano come la manipolazione organizzata sui social media sia passata da 28 Paesi nel 2017 a 70 oggi, coinvolgendo nazioni come Filippine, Stati Uniti e molti altri. Episodi di disinformazione guidata dall’IA, come quelli registrati nelle elezioni brasiliane e irlandesi, dimostrano che le istituzioni democratiche sono già sotto pressione.
«L’unione tra ragionamento LLM e architetture multi-agente permette a questi sistemi di coordinarsi in modo autonomo, infiltrarsi nelle comunità e fabbricare consenso in modo efficiente», avverte l’abstract dello studio.
Legiferare contro la minaccia: un dilemma etico e giuridico
Affrontare questo fenomeno solleva questioni complesse, come la definizione di libertà di espressione per reti di propaganda automatizzate. Alcuni di questi network operano apertamente come startup profit, attirando finanziamenti milionari da investitori. Prima ancora dell’avvento dell’IA, piattaforme social non regolamentate avevano già creato le condizioni per campagne di disinformazione su larga scala, con conseguenze devastanti, come il genocidio dei Rohingya in Myanmar, facilitato da Facebook.
Precedenti preoccupanti: la destra e le fake news
Oggi si osservano già i primi effetti delle campagne di disinformazione basate sull’IA, spesso diffuse da attori di estrema destra che alimentano odio verso categorie come immigrati o beneficiari del welfare. Il pericolo è reale e la risposta politica sembra ancora insufficiente.
Per approfondire il tema dell’etica nell’IA: Attivisti denunciano: le Big Tech sfruttano terre indigene per costruire data center.