Nieuwe AI-modellen van Anthropic en OpenAI, zoals Mythos Preview en GPT-5.5-Cyber, blijken in staat om tienduizenden kwetsbaarheden te detecteren in bijna elk besturingssysteem. Toch blijkt uit tests door vroege gebruikers dat deze systemen nog steeds afhankelijk zijn van menselijke expertise om effectief te functioneren.

De rol van AI in cybersecurity: minder autonomie, meer samenwerking

De nieuwste fase van AI-gestuurde cybersecurity richt zich niet langer op volledig autonome systemen, maar op de manier waarop mensen deze krachtige tools kunnen aansturen, valideren en implementeren. Dit blijkt uit ervaringen van bedrijven die de modellen in de praktijk hebben getest.

Meer kwetsbaarheden, maar ook meer valse meldingen

Palo Alto Networks meldt dat het met behulp van de nieuwe AI-modellen 75 kwetsbaarheden heeft ontdekt in één test, tegen normaal gesproken vijf tot tien per maand. Onderzoekers constateerden ook dat de modellen in staat zijn om ogenschijnlijk onbelangrijke kwetsbaarheden te koppelen tot werkbare aanvalsketens.

Microsoft waarschuwde deze week dat zijn nieuwe agent-based security system, dat draait op geavanceerde AI-modellen, 16 nieuwe kwetsbaarheden heeft gevonden in de netwerk- en authenticatiestack van Windows. Het bedrijf voorspelt dat AI-tools op termijn het aantal ontdekte kwetsbaarheden zullen verhogen, wat extra druk legt op verdedigers om deze sneller te analyseren en te patchen.

AI-modellen hebben begeleiding nodig

Ondanks de indrukwekkende capaciteiten blijken de modellen het beste te presteren wanneer ze worden begeleid door ervaren beveiligingsonderzoekers. Deze experts kunnen de bevindingen valideren, workflows optimaliseren en echte kwetsbaarheden onderscheiden van ruis.

XBOW, een startup gespecialiseerd in AI-gestuurde penetratietests, concludeerde in een blogpost dat Mythos uitstekend is voor broncode-audits, maar minder sterk presteert bij het valideren van exploits. Het model zou soms te letterlijk en conservatief zijn, waardoor het de praktische relevantie van bevindingen overschat.

Palo Alto Networks meldde een vals-positiefpercentage van ongeveer 30% bij het gebruik van Mythos, Opus 4.7 en GPT-5.5-Cyber. Dit percentage daalde echter naarmate het model werd getraind op de specifieke omgeving die het moest scannen.

Mensen blijven cruciaal voor interpretatie

Daniel Stenberg, de hoofdontwikkelaar van het open-sourceproject Curl, deelde deze week mee dat Mythos één lage-kwetsbaarheid en meerdere vals-positieven had gevonden in de code van Curl. Een andere bevinding werd uiteindelijk als onbelangrijk bestempeld. Dit benadrukt opnieuw de noodzaak van menselijke beoordeling.

Cisco introduceert blauwdruk voor AI-gestuurde beveiliging

Cisco heeft deze week de Foundry Security Spec gepubliceerd, een open-sourcehandleiding voor organisaties over het gebruik van geavanceerde AI-modellen in cybersecurity. Volgens Cisco zijn de nieuwe modellen zo krachtig dat hun output zonder menselijke controle onbetrouwbaar is.

In plaats van simpelweg te vragen om voorzichtiger te zijn, ontdekten Cisco-onderzoekers dat betere resultaten worden behaald wanneer systemen worden geïnstrueerd om controleerbare claims te maken. Dit benadrukt de noodzaak van een gecombineerde aanpak waarbij AI en menselijke expertise elkaar aanvullen.

Conclusie: AI als hulpmiddel, niet als vervanging

De nieuwste generatie AI-modellen biedt ongekende mogelijkheden voor het detecteren van kwetsbaarheden, maar hun effectiviteit hangt sterk af van menselijke begeleiding. Bedrijven en overheden investeren massaal in deze technologie, maar de praktijk leert dat menselijke expertise nog steeds onmisbaar is voor het interpreteren, valideren en implementeren van de resultaten.

Bron: Axios