G7-landene lanserer frivillige standarder for AI-sikkerhet

En gruppe internasjonale myndigheter, inkludert representanter fra G7-landene, har tirsdag offentliggjort retningslinjer for hva en «varedeklarasjon» for kunstig intelligens (AI) bør inneholde. Målet er å gjøre AI-systemer sikrere ved å øke gjennomsiktigheten i hvilke komponenter som inngår.

Konseptet, kjent som Software Bill of Materials (SBOM), har tidligere vært brukt for tradisjonell programvare. Nå utvides det til AI-systemer for å identifisere potensielle sikkerhetsrisikoer i leverandørkjeden.

Minimumskrav for AI-systemer

Retningslinjene, utarbeidet av blant annet Cybersecurity and Infrastructure Security Agency (CISA), fastsetter frivillige standarder for hvordan en SBOM for AI bør se ut. Selv om kravene ikke er bindende, representerer de et konsensus blant G7-eksperter og forventes å utvikle seg i takt med teknologien.

CISA uttaler: «Selv om retningslinjene ikke er uttømmende eller obligatoriske, reflekterer de minimumskravene som G7-eksperter har blitt enige om. Disse vil bli utvidet over tid for å følge utviklingen innen AI.»

Hva skal inngå i en AI-varedeklarasjon?

Retningslinjene omfatter flere nøkkelområder:

  • Informasjon om SBOM for AI selv – detaljer om komponentene i systemet.
  • Oversikt over hele AI-systemet – hvordan ulike deler samhandler.
  • Identifisering av AI-modeller – hvilke modeller som benyttes, og hvordan de er trent.
  • Datasets gjennom hele modellens levetid – hvilke data som har blitt brukt til opplæring og testing.
  • Fysisk og virtuell infrastruktur – hvilken teknisk plattform systemet krever for drift og vedlikehold.
  • Cybersikkerhetstiltak – hvilke beskyttelsesmekanismer som er på plass.
  • Nøkkelindikatorer for ytelse – hvordan systemets effektivitet og pålitelighet måles.

Eksperter: Et viktig skritt – men ikke nok

Tre bransjeeksperter, som tidligere har jobbet med AI-varedeklarasjoner (AIBOM), har reagert på retningslinjene. De mener dette er et betydningsfullt fremskritt, men at det gjenstår utfordringer.

«Nesten all programvare vil snart inneholde AI. Når sykehus kjøper AI-baserte medisinske enheter, forsvaret anskaffer AI-drevne våpensystemer, eller bilprodusenter integrerer AI i biler, må vi kunne stole på hva slags AI som finnes i disse systemene. Det første steget for tillit er å vite hva AI-en er, hvor den kommer fra, og hvordan den er trent.»

Daniel Bardenstein, administrerende direktør i Manifest Cyber

Bardenstein, som tidligere har utviklet en AIBOM-generator og samarbeidet med CISA og OWASP Foundation, mener retningslinjene er et «sterkt og prisverdig skritt» mot en felles forståelse av hvordan AI bør håndteres.

«Dette er et fantastisk initiativ fordi det dekker 80–90 % av det som trengs. Tidligere fantes det ingen felles standard, men nå har vi en klar referanse.»

Dmitry Raidman, medgründer og teknologidirektør i Cybeats

Raidman understreker imidlertid at retningslinjene ikke fullt ut løser implementeringsutfordringene. Bardenstein peker også på bekymringer knyttet til hvor enkelt organisasjoner vil klare å følge anbefalingene.

Veien videre: Standarder i utvikling

Selv om retningslinjene fra G7-landene er et viktig skritt, er det klart at arbeidet med å sikre AI-systemer er i sin begynnelse. Ekspertene forventer at kravene vil bli videreutviklet etter hvert som AI-teknologien modnes.

Foreløpig gjelder retningslinjene som frivillige standarder, men myndigheter og industrien oppfordres til å ta dem i bruk for å øke tilliten til AI-systemer på tvers av sektorer.