G7-landen stellen minimale veiligheidsnormen voor AI-systemen

Een groep internationale overheden en cybersecurity-organisaties heeft dinsdag richtlijnen gepubliceerd voor een zogenaamde AI-ingredientslijst. Dit concept, vergelijkbaar met een Software Bill of Materials (SBOM), moet de veiligheid van kunstmatige intelligentie verbeteren door inzicht te bieden in alle onderdelen en afhankelijkheden van AI-systemen.

Wat is een AI-ingredientslijst?

Een AI-ingredientslijst, ook wel AIBOM genoemd, is een overzicht van alle componenten die in een AI-systeem zijn verwerkt. Denk aan trainingsdata, modellen, infrastructuur en beveiligingsmaatregelen. Door deze informatie beschikbaar te stellen, kunnen organisaties en gebruikers beter inschatten welke risico’s er kleven aan een specifiek AI-systeem, zoals supply chain-aanvallen of onbekende afhankelijkheden.

Richtlijnen van de G7

De richtlijnen zijn opgesteld door een samenwerking van landen uit de G7, waaronder de Cybersecurity and Infrastructure Security Agency (CISA). Deze richtlijnen zijn vrijwillig en niet uitputtend, maar vormen een eerste stap naar standaardisatie. Volgens CISA zullen de normen in de toekomst worden uitgebreid om gelijke tred te houden met de snelle ontwikkelingen in AI-technologie.

De minimale elementen die moeten worden opgenomen in een AI-ingredientslijst zijn:

  • Informatie over de AI-ingredientslijst zelf;
  • Gegevens over het volledige AI-systeem;
  • Identificatie van de gebruikte AI-modellen;
  • Informatie over de datasets die tijdens de levenscyclus van het model zijn gebruikt;
  • Fysieke en virtuele infrastructuur die nodig is voor de werking en ondersteuning van het AI-systeem;
  • Cybersecuritymaatregelen die van toepassing zijn op AI-modellen en -systemen;
  • Belangrijkste prestatie-indicatoren (KPI’s) van het AI-systeem.

Reacties uit de industrie

Experts uit de cybersecurity-sector reageren positief op de richtlijnen, maar zien ook ruimte voor verbetering. Daniel Bardenstein, CEO van Manifest Cyber, benadrukt het belang van transparantie in AI-systemen: "Bijna elke software bevat tegenwoordig AI-componenten. Of het nu gaat om een medisch apparaat in een ziekenhuis, een wapen in het leger of een zelfrijdende auto, we moeten kunnen vertrouwen op de AI die in deze systemen zit. De eerste stap daarvoor is weten wat die AI is, waar hij vandaan komt en hoe hij is getraind."

Bardenstein, die eerder samenwerkte met CISA en de OWASP Foundation aan AIBOM’s, noemt de richtlijnen een goede eerste stap richting vertrouwen in AI. Dmitry Raidman, medeoprichter en CTO van Cybeats, sluit zich hierbij aan. Hij ontwikkelde zelf een AIBOM-generator en werkte eerder samen met CISA en OWASP aan dit onderwerp. Volgens Raidman dekt de richtlijn 80 tot 90% van wat nodig is en biedt het voor het eerst een duidelijke basislijn.

Toch zijn er ook kritische geluiden. Bardenstein wijst op de uitdagingen rond implementatie. Raidman merkt op dat de richtlijnen het probleem van onvoldoende aandacht voor beveiligingsrisico’s niet volledig oplossen.

Toekomst van AI-ingredientslijsten

De publicatie van deze richtlijnen markeert een belangrijke stap in de wereldwijde standaardisatie van AI-veiligheid. Hoewel de normen momenteel vrijwillig zijn, kan dit in de toekomst veranderen naarmate AI een steeds grotere rol speelt in kritieke sectoren zoals gezondheidszorg, defensie en transport. Organisaties worden aangeraden om de richtlijnen alvast te implementeren om zo de veiligheid en betrouwbaarheid van hun AI-systemen te waarborgen.

"Deze richtlijnen zijn een cruciale stap om iedereen op één lijn te krijgen over hoe we AI moeten benaderen om vertrouwen te creëren."

— Daniel Bardenstein, CEO van Manifest Cyber