En grupp internationella myndigheter, däribland representanter från G7-länderna, har publicerat nya riktlinjer för hur AI-system ska redovisas på ett transparent och säkert sätt. Rekommendationerna fokuserar på att skapa en så kallad AI-komponentlista, eller AI Bill of Materials (AIBOM), som liknar den traditionella Software Bill of Materials (SBOM) men anpassad för AI-teknik.

Syftet med AIBOM är att identifiera alla komponenter i ett AI-system, inklusive data, modeller, infrastruktur och säkerhetsåtgärder, för att lättare upptäcka potentiella risker i leveranskedjan. Riktlinjerna är frivilliga men syftar till att etablera en gemensam standard för hur AI-system ska dokumenteras och granskas.

Vad ingår i riktlinjerna?

  • Information om AI-systemet: Övergripande beskrivning av systemets funktion och uppbyggnad.
  • Modeller och data: Redovisning av vilka AI-modeller som används, hur de tränats och vilka dataset som använts under hela livscykeln.
  • Infrastruktur: Beskrivning av den fysiska och virtuella miljö som krävs för att driva och underhålla AI-systemet.
  • Säkerhetsåtgärder: Vilka skyddsåtgärder som tillämpas för att säkra AI-modeller och system.
  • Prestandaindikatorer: Nyckeltal som mäter AI-systemets effektivitet och tillförlitlighet.

Cybersäkerhetsexperter välkomnar initiativet, men påpekar att det finns utmaningar kvar att lösa. Daniel Bardenstein, vd för Manifest Cyber, framhåller att transparens är avgörande för att bygga förtroende för AI-system i kritiska tillämpningar som sjukvård och försvar.

"Nästan all mjukvara kommer snart att innehålla AI. När ett sjukhus köper en AI-driven medicinsk enhet eller försvarsmakten införskaffar ett AI-baserat vapensystem, måste vi kunna lita på vad som finns i systemen. Det första steget är att identifiera vilken AI som används, var den kommer ifrån och hur den har tränats."

Dmitry Raidman, medgrundare och CTO på Cybeats, instämmer och kallar riktlinjerna för ett viktigt steg framåt. Han menar att de täcker 80–90 % av det som krävs för att skapa en gedigen AI-komponentlista.

"Tidigare fanns ingen gemensam grund. Nu finns det en tydlig baslinje att utgå ifrån."

Trots uppskattningen lyfter experterna också fram utmaningar. Bardenstein oroar sig för hur lätt organisationer kommer att kunna implementera riktlinjerna i praktiken, medan Raidman påpekar att vissa aspekter, som säkerhetsrisker kopplade till data, inte behandlas tillräckligt ingående.

Riktlinjerna är tänkta att utvecklas över tid för att hålla jämna steg med den snabba utvecklingen inom AI-teknik. Enligt CISA är de frivilliga men speglar en bred konsensus bland G7-experter och kommer att bli allt viktigare för att säkerställa säker och pålitlig AI-användning globalt.

Källa: CyberScoop