GPT-5.5-Cyber tilgjengelig for sertifiserte cybersikkerhetseksperter
OpenAI har begynt å distribuere en mindre begrenset versjon av sin AI-modell GPT-5.5, kalt "Spud", til utvalgte cybersikkerhetseksperter. Ifølge selskapet er dette en respons på økende behov for avanserte verktøy innen cybersikkerhet.
Den nye modellen, kalt GPT-5.5-Cyber, er tilgjengelig for eksperter som er ansvarlige for å sikre kritisk infrastruktur. Disse brukerne har tilgang til en versjon med færre begrensninger sammenlignet med den offentlige utgaven. Modellen kan blant annet brukes til å lete etter programvarefeil, analysere skadelig programvare og reversere angrep.
Modellen like effektiv som konkurrenten Mythos
Nylige tester viser at GPT-5.5-Cyber presterer nesten like bra som Anthropics Mythos Preview når det gjelder å identifisere og utnytte sikkerhetshull. I en nylig gjennomført test klarte Mythos å fullføre en 32-trinns simulerte bedriftscyberangrep i 3 av 10 forsøk, mens GPT-5.5 klarte det i 2 av 10 forsøk. Før Mythos hadde ingen AI-modell klart å fullføre denne testen.
Færre begrensninger, men fortsatt kontroll
Selv om GPT-5.5-Cyber har færre begrensninger, er det fortsatt visse oppgaver som er blokkert. Brukerne kan for eksempel ikke stjele legitimasjonsinformasjon eller skrive skadelig programvare. Modellen er imidlertid designet for å automatisere viktige arbeidsflyter innen cybersikkerhet, som å skrive bevis for funnede feil eller kjøre simuleringer for å teste organisasjonens sikkerhetsnivå.
To ulike tilnærminger til AI-modeller for cybersikkerhet
OpenAI og Anthropic har valgt forskjellige strategier for å distribuere sine AI-modeller til cybersikkerhetsformål. Anthropic har en mer restriktiv tilnærming og har kun gitt tilgang til rundt 40 organisasjoner. Noen av disse deltar også i Project Glasswing, hvor medlemmer utveksler informasjon om hvordan de tester modellen.
OpenAI har derimot valgt en mer åpen tilnærming. Selskapet tilbyr en versjon av modellen med strengere begrensninger til allmennheten, samtidig som det gir tilgang til en versjon med færre begrensninger for godkjente selskaper.
Hva skjer videre?
Den amerikanske regjeringen vurderer nå en rekke tiltak som kan påvirke hvordan føderale myndigheter involverer seg i fremtidige distribusjoner av AI-modeller. Debatten om hvordan man best kan hindre misbruk av avansert AI-teknologi fortsetter å eskalere.
Hvorfor dette betyr noe
Avanserte AI-modeller som GPT-5.5 og Mythos representerer et dobbelt sverd. På den ene siden kan de revolusjonere cybersikkerhetsarbeidet ved å automatisere oppdagelse av feil og forbedre responsen på angrep. På den andre siden reiser de alvorlige spørsmål om hvordan man kan forhindre at slike verktøy havner i feil hender.
«Dette er et avgjørende skritt for å sikre at de mest avanserte AI-verktøyene blir brukt til å beskytte, ikke skade, kritisk infrastruktur.»
– OpenAI-pressemelding