G7-landene præsenterer frivillige standarder for AI-sikkerhed

En gruppe internationale myndigheder under G7-landene har udgivet nye retningslinjer for, hvordan AI-systemer skal dokumenteres med en 'ingrediensliste' for at styrke sikkerheden. Konceptet, kendt som Software Bill of Materials (SBOM), skal sikre gennemsigtighed i, hvilke komponenter der indgår i et AI-system – ligesom en varedeklaration på fødevarer.

Frivillige minimumsstandarder for AI

Retningslinjerne er udarbejdet af blandt andre den amerikanske Cybersecurity and Infrastructure Security Agency (CISA) og fastlægger frivillige minimumsstandarder for, hvordan AI-relaterede SBOM'er skal struktureres. Selvom standarderne ikke er bindende, forventes de at blive udvidet løbende for at følge med den hurtige udvikling inden for AI.

Ifølge CISA dækker retningslinjerne blandt andet:

  • Information om AI-systemets samlede opbygning
  • Identifikation af de AI-modeller, der anvendes
  • Data, der er blevet brugt til at træne modellerne
  • Fysisk og virtuel infrastruktur, der understøtter AI-systemet
  • Cybersikkerhedsforanstaltninger for AI-modeller og -systemer
  • Nøgletal for AI-systemets ydeevne

Branchefolk bakker op, men peger på udfordringer

Tre eksperter inden for AI-sikkerhed har taget imod retningslinjerne med ros, men påpeger også områder, hvor der er plads til forbedring.

«Næsten al software i dag indeholder AI, og når hospitaler køber AI-baserede medicinske apparater, eller forsvarsministeriet anskaffer AI-drevne våbensystemer, er det afgørende, at vi kan stole på, hvad AI’en indeholder. Det første skridt er at identificere, hvilken AI der er tale om, hvor den kommer fra, og hvordan den er blevet trænet.»

Daniel Bardenstein, administrerende direktør for Manifest Cyber

Bardenstein, der tidligere har udviklet et værktøj til AI-ingredienslister i samarbejde med CISA og OWASP Foundation, kalder retningslinjerne for «et stærkt og lovende skridt» mod at skabe enighed om, hvordan AI-sikkerhed skal håndteres i fremtiden.

Dmitry Raidman, medstifter og teknologichef hos Cybeats, fremhæver, at retningslinjerne dækker 80-90% af det nødvendige grundlag for AI-sikkerhed. «Der har ikke været en klar baseline før nu, men med disse retningslinjer bliver der sat en standard,» siger han.

Begge eksperter påpeger dog udfordringer. Bardenstein udtrykker bekymring for, hvor let organisationer vil kunne implementere retningslinjerne, mens Raidman mener, at der mangler mere fokus på praktisk anvendelighed og specifikke risici.

AI-ingredienslister som redskab mod cybertrusler

Konceptet med AI-ingredienslister, ofte kaldet AIBOM (AI Bill of Materials), minder om den traditionelle SBOM, men er tilpasset til AI-systemers kompleksitet. Ved at dokumentere alle komponenter i et AI-system håber myndighederne at gøre det lettere at opdage sårbarheder og sikre, at AI-værktøjer lever op til sikkerhedsstandarder.

Retningslinjerne kommer på et tidspunkt, hvor brugen af AI vokser hastigt inden for områder som sundhedsvæsen, forsvar og bilindustri. Ifølge eksperterne er der behov for en fælles tilgang for at sikre, at AI-systemer er gennemsigtige og pålidelige.