OpenAI heeft een aangepaste versie van het AI-model GPT-5.5 – intern aangeduid als "Spud" – beschikbaar gesteld aan geverifieerde cyberbeveiligers. Dit maakte het bedrijf donderdag bekend. De stap volgt op recente tests waaruit blijkt dat GPT-5.5 bijna even effectief is als Anthropics Mythos Preview bij het identificeren en misbruiken van softwarekwetsbaarheden.
Waarom dit belangrijk is
De nieuwe mogelijkheden van deze modellen hebben in Silicon Valley en het Witte Huis een urgente discussie doen ontstaan over hoe voorkomen kan worden dat deze technologie in verkeerde handen valt. Cybercriminelen of vijandige overheden zouden de modellen immers kunnen misbruiken voor geavanceerde aanvallen.
De details
OpenAI opent een beperkte preview van GPT-5.5-Cyber voor cyberbeveiligers die verantwoordelijk zijn voor de beveiliging van kritieke infrastructuur. Volgens een persbericht krijgen deelnemers aan het hoogste niveau van het Trusted Access for Cyber-programma toegang tot een versie van GPT-5.5 met minder beperkingen dan het publieke model.
Deze beveiligers kunnen het model gebruiken voor:
- Het opsporen van softwarefouten;
- Het analyseren van malware;
- Het reverse-engineeren van cyberaanvallen.
Hoewel bepaalde activiteiten zoals het stelen van inloggegevens of het schrijven van malware nog steeds worden geblokkeerd, zijn de nieuwe mogelijkheden gericht op het automatiseren van veelgebruikte cybersecuritywerkstromen. Zo kan het model helpen bij het schrijven van proofs of concept voor gevonden kwetsbaarheden of het uitvoeren van simulaties om de beveiliging van een organisatie te testen.
Extra functionaliteit voor andere deelnemers
Naast GPT-5.5-Cyber heeft OpenAI ook een andere versie van het model beschikbaar gesteld aan andere leden van het Trusted Access for Cyber-programma. Deze versie kan helpen bij:
- Het begrijpen van onbekende code;
- Het in kaart brengen van getroffen systemen;
- Het beoordelen van softwarepatches.
De bredere context
Geavanceerde AI-modellen worden steeds beter in het vinden en uitbuiten van technische zwakke plekken, variërend van besturingssystemen tot webbrowsers. Het Verenigd Koninkrijk AI Security Institute meldde vorige week dat GPT-5.5 in 2 van de 10 testruns een gesimuleerde cyberaanval van 32 stappen succesvol kon voltooien. Mythos slaagde hierin in 3 van de 10 gevallen – een prestatie die voorheen geen enkel AI-model had geleverd.
Twee verschillende benaderingen
OpenAI en Anthropic hanteren elk een andere strategie bij de uitrol van hun cybercapabele modellen, met als doel te voorkomen dat de technologie in handen van kwaadwillenden valt. Anthropic kiest voor een meer restrictieve aanpak: ongeveer 40 organisaties krijgen toegang tot Mythos, waarvan sommige ook deelnemen aan het nieuwe Project Glasswing. Hierin delen deelnemers informatie over hoe ze het model testen.
OpenAI gaat een stap verder door één versie van het model met strikte beperkingen vrij te geven, terwijl een andere versie met minder beveiligingen beschikbaar wordt gesteld voor bedrijven die hiervoor een aanvraag indienen.
Wat nu?
Het Witte Huis bespreekt momenteel een reeks uitvoerende maatregelen die de rol van de federale overheid bij toekomstige modeluitrol kunnen veranderen. Experts benadrukken de noodzaak om kritieke infrastructuur te beschermen tegen de snel evoluerende AI-gedreven dreigingen.