Un consorzio di agenzie governative internazionali, tra cui la Cybersecurity and Infrastructure Security Agency (CISA) del G7, ha pubblicato una nuova guida per definire gli elementi fondamentali che devono essere inclusi in strumenti di trasparenza dell'intelligenza artificiale, simili a una lista degli ingredienti.
Questo approccio, noto come Software Bill of Materials (SBOM), mira a elencare tutti i componenti di un software per identificare più facilmente i rischi nella catena di fornitura. La guida introduce standard volontari minimi per gli SBOM applicati all'IA, estendendo precedenti iniziative in questo ambito.
Secondo la CISA,
«Sebbene non esaustiva né obbligatoria, la lista degli elementi minimi integrati in questa guida riflette il consenso degli esperti del G7 e sarà ampliata nel tempo per adeguarsi all'evoluzione rapida della tecnologia AI.»
Gli elementi chiave includono:
- Informazioni sull'SBOM per l'IA stessa;
- Dettagli sul sistema AI nel suo complesso;
- Identificazione dei modelli utilizzati dal sistema AI;
- Dati impiegati durante l'intero ciclo di vita del modello;
- Infrastrutture fisiche e virtuali necessarie per il funzionamento e il supporto del sistema AI;
- Misure di cybersecurity applicabili ai modelli e ai sistemi AI;
- Indicatori chiave di prestazione del sistema AI.
Tre esperti del settore, che hanno lavorato su iniziative simili denominate AIBOM (AI Bill of Materials), hanno accolto con favore la guida, sottolineando sia i suoi punti di forza che le aree di miglioramento.
Daniel Bardenstein, CEO di Manifest Cyber e sviluppatore di un generatore AIBOM, ha dichiarato:
«Quasi ogni software oggi integra componenti di IA. Quando un ospedale acquista un dispositivo medico con IA, il Dipartimento della Difesa un sistema d'arma con IA o le case automobilistiche implementano IA nei veicoli, dobbiamo poter fidarci di ciò che l'IA contiene. Il primo passo per costruire questa fiducia è identificare cosa sia l'IA, da dove provenga e come sia stata addestrata.»
Bardenstein ha aggiunto:
«Questa guida rappresenta un passo importante verso una visione condivisa su come affrontare la fiducia nell'IA, che sarà il futuro del settore.»
Dmitry Raidman, cofondatore e CTO di Cybeats — anch'egli sviluppatore di un generatore AIBOM e collaboratore con CISA e OWASP — ha definito la guida del G7
«eccezionale», poiché copre l'80-90% delle esigenze necessarie.
«Prima mancava una base comune, ora invece viene definita una linea di partenza chiara.»
Tuttavia, entrambi gli esperti hanno evidenziato alcune criticità. Bardenstein ha espresso preoccupazioni sulla facilità di implementazione della guida da parte delle organizzazioni, mentre Raidman ha sottolineato che non affronta in modo esaustivo il tema della sostenibilità dei dati utilizzati per l'addestramento dei modelli AI.