GPT 5.4 Cyber skal revolusjonere cybersikkerhetsarbeid

OpenAI utvider sitt Trusted Access for Cyber-program til tusenvis av individer og organisasjoner. Formålet er å gi dem tilgang til avanserte verktøy for å oppdage og utbedre sårbarheter i egne systemer.

Sentralt i utvidelsen er lanseringen av GPT 5.4 Cyber, en ny versjon av ChatGPT spesialtilpasset for cybersikkerhetsoppgaver. Ifølge OpenAI er modellen optimalisert for å analysere og identifisere potensielle trusler og svakheter i programvare.

Streng kontroll for å hindre misbruk

Tilgang til programmet og den nye modellen vil være underlagt omfattende Know-Your-Customer (KYC)- og identitetsverifiseringsrutiner. Dette skal sikre at verktøyene ikke faller i feil hender.

«Vårt mål er å gjøre disse verktøyene så tilgjengelige som mulig, samtidig som vi forhindrer misbruk», skriver OpenAI i en nylig bloggpost. «Vi utformer mekanismer som unngår vilkårlige avgjørelser om hvem som får tilgang til legitim bruk.»

Konkurranse fra Anthropic og debatt om avanserte modeller

OpenAIs kunngjøring kommer bare en uke etter at konkurrenten Anthropic lanserte Project Glasswing. Dette programmet tilbyr store teknologiselskaper tilgang til Claude Mythos, en modell som selskapet selv har betegnet som for farlig til å selges kommersielt.

Cybersikkerhetseksperter i USA og Storbritannia har beskrevet Mythos som et betydelig fremskritt innen identifisering av sårbarheter – både for å oppdage og potensielt utnyttet dem. Det pågår imidlertid debatt om modellens langsiktige innvirkning på informasjonssikkerheten.

GPT 5.4 Cyber er også utviklet for testing og sårbarhetsanalyse, men OpenAI understreker at de vil fortsette å forbedre programmet basert på erfaringer. Selskapet planlegger å utvide tilgangen til modellen for å beskytte kritisk infrastruktur, offentlige tjenester og andre viktige digitale systemer.

Ingen sentral styring av hvem som får tilgang

OpenAI avviser ideen om å avgjøre hvilke bransjer eller sektorer som skal få tilgang til verktøyene. I stedet fokuserer de på å muliggjøre forsvar for flest mulig legitime aktører.

«Vi mener det verken er praktisk eller riktig å sentralt bestemme hvem som skal få forsvare seg selv», heter det i blogginnlegget. «I stedet ønsker vi å muliggjøre så mange legitime forsvarere som mulig, med tilgang basert på verifisering, tillitssignaler og ansvarlighet.»

Programmet ble først annonsert for flere måneder siden, og OpenAI har unngått direkte sammenligninger med Anthropics Mythos-modell.

Denne artikkelen ble først publisert på CyberScoop.