AI-modellen Mythos kan utnyttjas för skadliga syften

Anthropic har utvecklat AI-modellen Mythos Preview, en kraftfull cybersecurity-verktyg som kan identifiera och utnyttja sårbarheter i samtliga stora operativsystem och webbläsare. Företaget har tidigare varnat för att modellen kan vara farlig om den hamnar i fel händer. Nu visar det sig att detta redan har skett, rapporterar Bloomberg.

Obehöriga använde konsultens åtkomst och vanliga verktyg

Enligt uppgifter har en liten grupp obehöriga personer fått tillgång till Mythos. En anonym medlem i gruppen, som identifierar sig som en tredje parts konsult för Anthropic, berättade för nyhetsbyrån att medlemmar i ett privat onlineforum lyckades ta sig in i systemet. De använde sig av konsultens åtkomst kombinerat med vanliga nätforskningstekniker.

Modellen kan utnyttja sårbarheter i alla stora system

Mythos Preview är en generell AI-modell som enligt beskrivningen kan identifiera och utnyttja sårbarheter i alla stora operativsystem och webbläsare. Detta inkluderar bland annat Windows, macOS, Linux, Chrome, Firefox och Safari. Förmågan att automatiskt upptäcka och utnyttja säkerhetsbrister gör modellen extremt kraftfull – men också potentiellt farlig om den missbrukas.

Anthropic undersöker incidenten

Företaget har ännu inte offentligt kommenterat händelsen i detalj. En talesperson för Anthropic har dock meddelat att man aktivt utreder hur obehöriga kunde få tillgång till modellen och vilka åtgärder som krävs för att förhindra liknande incidenter i framtiden. Säkerhetsexperter betonar vikten av att skydda sådana avancerade AI-verktyg från obehörig åtkomst.

"Denna incident visar hur viktigt det är att ha strikta säkerhetsprotokoll för AI-modeller med potentiellt skadlig kapacitet. Även en liten läcka kan få allvarliga konsekvenser."

– Säkerhetsexpert, anonym

Vad innebär detta för framtidens AI-säkerhet?

Incidenten med Mythos belyser de utmaningar som följer med utvecklingen av avancerad AI-teknik. Företag och forskare världen över brottas med frågan om hur man balanserar innovation med säkerhet. AI-modeller med förmågan att automatisera cyberattacker utgör ett nytt hotlandskap, och incidenten visar att även väl etablerade säkerhetsåtgärder kan kringgås.

Experter menar att det krävs både tekniska och organisatoriska lösningar för att säkra sådana modeller. Detta inkluderar strikt åtkomstkontroll, regelbunden säkerhetsrevision och utbildning av personal för att förebygga mänskliga misstag.

Vad kan företag och användare göra?

  • Företag: Se över sina säkerhetsprotokoll för AI-modeller och implementera fler lager av skydd, såsom multifaktorautentisering och begränsad åtkomst.
  • Användare: Var medveten om riskerna med AI-verktyg och rapportera misstänkta aktiviteter omedelbart.
  • Myndigheter: Uppmuntra till utveckling av branschstandarder och regleringar för säker hantering av avancerad AI.
Källa: The Verge