Anthropic undersøker nå rapporter om mulig uautorisert tilgang til sin AI-modell Claude Mythos, som er designet for å identifisere sårbarheter i programvare og systemer. Ifølge opplysninger til Bloomberg skal en gruppe ha fått tilgang til modellen via en tredjepartsleverandørportal og ved hjelp av avanserte søkeverktøy på internett.
En kilde nær saken opplyser imidlertid at gruppen kun har vært interessert i å teste modellen, og ikke har hatt ondsinnede hensikter.
«Vi undersøker en rapport om uautorisert tilgang til Claude Mythos Preview gjennom en av våre tredjepartsleverandørers miljøer,» uttalte Anthropic i en pressemelding.
Claude Mythos og dens potensial
Claude Mythos ble lansert tidligere denne måneden som en del av Project Glasswing og har fått betydelig oppmerksomhet. Tilgangen til forhåndsversjonen ble begrenset til et lite utvalg av pålitelige testbedrifter, inkludert Amazon, Microsoft, Apple, Cisco og Mozilla.
Mozilla rapporterte at modellen hjalp dem med å oppdage og fikse 271 sårbarheter i Firefox. I tillegg har flere banker og offentlige etater vist interesse for å benytte seg av modellen for å styrke sine egne systemer mot angrep.
Hvordan fikk gruppen tilgang?
Ifølge rapporten skal gruppen ha fått tilgang til Mythos gjennom en utviklerportal og ved å gjette seg til hvor modellen var lagret. Det spekuleres også i at de samme personene kan ha tilgang til andre uutgitte Anthropic-modeller.
Modellens evner og bekymringer
Claude Mythos har nylig fått oppmerksomhet for sin påståtte evne til å oppdage sikkerhetsfeil i operativsystemer og nettlesere. Dette har imidlertid skapt både skepsis og frykt blant sikkerhetsforskere. Alex Zenla, CTO i skybasert sikkerhetsfirma Edera, uttalte til Wired at AI-genererte cyberangrep kan bli en reell trussel i fremtiden.
Anthropic ble nylig klassifisert som en «leverandørkjederisiko» av USAs forsvarsdepartement, men har vært i samtaler med Trump-administrasjonen for å få fjernet denne merkelappen.