OpenAI udvider nu adgangen til en specialiseret version af sin seneste AI-model, GPT-5.5, til godkendte cybersikkerhedseksperter. Ifølge en pressemeddelelse fra firmaet er den nye model, kaldet GPT-5.5-Cyber, designet til at hjælpe med at identificere og analysere sikkerhedsbrister i kritisk infrastruktur.

Hvorfor det betyder noget

Nylige tests viser, at GPT-5.5-Cyber præsterer næsten på niveau med Anthropics konkurrerende model, Mythos Preview, når det kommer til at finde og udnytte softwarefejl. Denne udvikling har sat gang i en intens debat blandt tech-virksomheder og amerikanske myndigheder om, hvordan man kan forhindre, at sådanne avancerede værktøjer havner i de forkerte hænder.

Hvad der sker lige nu

OpenAI lancerer en begrænset forhåndsudgivelse af GPT-5.5-Cyber til cybersikkerhedseksperter, der er godkendt gennem firmaets Trusted Access for Cyber-program. Ifølge en kilde, der er bekendt med modellens evner, er den nye model sammenlignelig med Mythos Preview. En nylig test viste, at Mythos Preview havde en marginal fordel.

De godkendte brugere vil modtage en version af GPT-5.5 med færre begrænsninger end den offentligt tilgængelige model. Det giver dem mulighed for at bruge AI’en til at lede efter fejl, analysere malware og undersøge angreb. Selvom visse funktioner, som for eksempel stjæle login-oplysninger eller skrive malware, stadig er blokeret, er de nye muligheder designet til at automatisere og effektivisere almindelige cybersikkerhedsopgaver.

Specifikke anvendelsesmuligheder

  • Proof of Concept: GPT-5.5-Cyber hjælper eksperter med at skrive beviser for de fejl, de opdager.
  • Sikkerhedstests: Modellen kan køre simuleringer for at teste en organisations sikkerhedsberedskab.
  • Kodeanalyse: En anden version af GPT-5.5 kan hjælpe med at forstå ukendt kode, kortlægge påvirkede systemer og gennemgå softwareopdateringer.

Den store sammenhæng

Avancerede AI-modeller bliver stadig bedre til at identificere og udnytte sårbarheder i teknologi, lige fra styresystemer til webbrowsere. Ifølge UK AI Security Institute var GPT-5.5 i stand til at gennemføre en 32-trins simuleret cyberangreb på en virksomhed i 2 ud af 10 forsøg. Mythos Preview klarede det i 3 ud af 10 forsøg – før Mythos havde ingen AI-model nogensinde gennemført denne test.

To forskellige tilgange til sikkerhed

OpenAI og Anthropic følger hver deres strategi for at gøre deres cybersikkerhedsmodeller tilgængelige, samtidig med at de forsøger at forhindre misbrug. Anthropic har valgt en mere restriktiv tilgang og giver kun ca. 40 organisationer adgang til Mythos. Nogle af disse virksomheder deltager også i Project Glasswing, hvor de udveksler erfaringer med at teste modellen.

OpenAI tager en mere åben tilgang. Firmaet frigiver en version af sine avancerede modeller med strenge sikkerhedsforanstaltninger, samtidig med at det giver adgang til en version med færre begrænsninger for virksomheder, der ansøger om det.

Hvad skal vi holde øje med?

Den amerikanske regering overvejer en række nye udmeldinger og tiltag, der kan ændre, hvordan føderale myndigheder involverer sig i fremtidige AI-udgivelser. Eksperter forudser, at udviklingen inden for AI-drevet cybersikkerhed vil accelerere yderligere i takt med, at kritisk infrastruktur bliver mere sårbar over for avancerede trusler.

"Avancerede AI-modeller ændrer spillet inden for cybersikkerhed. Det er afgørende, at vi finder en balance mellem innovation og sikkerhed for at beskytte kritisk infrastruktur."

– Ekspert i AI-sikkerhed
Kilde: Axios