Firma Anthropic prowadzi dochodzenie w sprawie podejrzewanego nieautoryzowanego dostępu do modelu Claude Mythos, który miał służyć do identyfikacji luk w zabezpieczeniach systemów. Jak poinformowała agencja Bloomberg, dostęp do narzędzia uzyskano poprzez portal zewnętrznego kontrahenta oraz z wykorzystaniem specjalistycznych narzędzi do analizy internetowej.
Według osoby zaznajomionej z sytuacją, nieuprawnieni użytkownicy nie mieli na celu szkodliwego wykorzystania modelu, a jedynie testowanie jego możliwości. W oficjalnym oświadczeniu Anthropic potwierdził prowadzenie dochodzenia w sprawie doniesień o naruszeniu zabezpieczeń.
„Badamy doniesienia o nieautoryzowanym dostępie do modelu Claude Mythos Preview poprzez środowisko jednego z naszych zewnętrznych dostawców”, czytamy w komunikacie firmy.
Model Claude Mythos Preview został udostępniony na początku miesiąca w ramach projektu „Glasswing” wyłącznie wybranym, zaufanym partnerom, takim jak Amazon, Microsoft, Apple, Cisco oraz Mozilla. Ta ostatnia firma poinformowała, że dzięki narzędziu udało się jej wykryć i naprawić 271 luk w zabezpieczeniach przeglądarki Firefox. Coraz więcej banków i agencji rządowych wyraża zainteresowanie uzyskaniem dostępu do modelu w celu wzmocnienia własnych systemów ochrony.
Tymczasem grupa nieuprawnionych użytkowników, która według doniesień posiada prywatny kanał na Discordzie, miała uzyskać dostęp do Mythosa poprzez portal deweloperski, korzystając z metody „zgadywania” lokalizacji modelu. Według raportu, ta sama grupa mogła również uzyskać dostęp do innych, jeszcze nieopublikowanych modeli Anthropic.
Nowy model zyskał ostatnio rozgłos dzięki rzekomej zdolności do wykrywania luk w zabezpieczeniach systemów operacyjnych i przeglądarek internetowych. Ta funkcjonalność wywołała zarówno sceptycyzm wśród ekspertów ds. cyberbezpieczeństwa, jak i obawy przed wzrostem zagrożeń związanych z atakami generowanymi przez sztuczną inteligencję. Alex Zenla, dyrektor ds. technologii w firmie Edera zajmującej się bezpieczeństwem w chmurze, niedawno ostrzegał w rozmowie z „Wired”, że ataki AI mogą stać się realnym zagrożeniem.
Warto zaznaczyć, że Anthropic został niedawno uznany przez Departament Obrony USA za „zagrożenie dla łańcucha dostaw”, jednak firma prowadzi rozmowy z administracją Trumpa w celu usunięcia tej klasyfikacji.