Etter å ha brukt ukesvis på å understreke hvor farlig og kraftfull Claude Mythos er – så farlig at den ifølge Anthropic ikke burde slippes løs på markedet – har selskapet nå fått en ydmykende påminnelse om at sikkerheten ikke var god nok.
Ifølge en rapport fra Bloomberg har en «liten gruppe uautoriserte brukere» hatt tilgang til AI-modellen siden dagen Anthropic annonserte planer om å tilby den til utvalgte bedrifter for testing. Dette skjer til tross for at selskapet tidligere har bygget sitt omdømme på å ta AI-sikkerhet på alvor.
En ydmykende feil for et selskap som satser på sikkerhet
Anthropic har lenge markedsført seg selv som en ledende aktør innen trygg og ansvarlig AI-utvikling. Nå står selskapet imidlertid i en vanskelig situasjon etter at det viser seg at deres nyeste og mest avanserte cyber-AI-modell, Mythos, ble tilgjengelig for uvedkommende før den offisielle lanseringen.
Ifølge kilder kjent med saken har ukjente brukere hatt tilgang til modellen siden dagen selskapet offentliggjorde planene om å teste den for et begrenset utvalg av bedrifter. Dette strider mot Anthropics egne påstander om at modellen var for farlig til å slippes løs på markedet.
Undersøkelse igangsettes
Anthropic har nå bekreftet overfor Bloomberg at de er klar over situasjonen og har satt i gang en intern etterforskning for å kartlegge hvordan dette kunne skje. Selskapet har imidlertid ikke gitt ytterligere detaljer om omfanget av lekkasjen eller hvordan uvedkommende fikk tilgang til modellen.
«Vi tar dette svært alvorlig og undersøker situasjonen nøye,» uttaler en talskvinne for Anthropic til Bloomberg. «Sikkerhet og ansvarlighet står helt sentralt i vår tilnærming til AI-utvikling, og vi jobber for å sikre at slike hendelser ikke skjer igjen.»
Konsekvenser for tilliten til AI-sikkerhet
Denne hendelsen reiser viktige spørsmål om hvorvidt selv de mest avanserte AI-modellene kan beskyttes mot misbruk. Til tross for strenge sikkerhetstiltak og kontrollert tilgang, viser det seg at lekkasjer likevel kan forekomme – noe som kan undergrave tilliten til selskaper som Anthropic.
Eksperter peker på at dette kan få store konsekvenser for hvordan AI-modeller utvikles og distribueres i fremtiden. «Dette er en påminnelse om at ingen system er 100 % sikkert,» sier en anonym kilde innen AI-sikkerhet til The Verge. «Selv de mest robuste sikkerhetstiltakene kan bli omgått, og det er avgjørende at selskaper erkjenner dette og tar nødvendige forholdsregler.»
«Dette er en ydmykende påminnelse om at selv de mest avanserte AI-modellene ikke er immune mot lekkasjer. Sikkerhet må alltid være en prioritet, men hendelser som denne viser at det aldri er mulig å være for forsiktig.»
– Ekspert innen AI-sikkerhet
Hva skjer nå?
Anthropic har ikke oppgitt noen tidsplan for når undersøkelsen vil være ferdigstilt, eller hvilke tiltak de planlegger å iverksette for å forhindre lignende hendelser i fremtiden. Selskapet har imidlertid lovet å dele ytterligere oppdateringer når de har mer informasjon.
Inntil videre gjenstår det å se hvordan denne hendelsen vil påvirke tilliten til Anthropics påstander om AI-sikkerhet, og om andre aktører i bransjen vil ta lærdom av denne ydmykende lekkasjen.