Nowy model sztucznej inteligencji opracowany przez firmę Anthropic, Claude Mythos Preview, okazał się tak potężny, że jego twórcy zdecydowali się ograniczyć jego dostępność. Zamiast udostępnić go publicznie, model został przekazany tylko nielicznym podmiotom, w tym największym firmom technologicznym i bankom, ze względu na poważne zagrożenia dla cyberbezpieczeństwa.

Podczas testów okazało się, że Claude Mythos Preview doskonale radzi sobie z wykrywaniem luk w zabezpieczeniach praktycznie wszystkich systemów operacyjnych. To odkrycie skłoniło Anthropic do podjęcia decyzji o ograniczeniu jego dystrybucji. Model mógłby posłużyć hakerom jako narzędzie do identyfikacji słabych punktów w krytycznej infrastrukturze cyfrowej.

W ramach programu Project Glasswing model został udostępniony wybranym partnerom, takim jak Nvidia, JP Morgan Chase oraz Google, a także kilku innym firmom odpowiedzialnym za utrzymanie kluczowych systemów oprogramowania. Ich zadaniem jest wykorzystanie AI do wzmocnienia zabezpieczeń przed potencjalnymi atakami.

Jak działa Claude Mythos Preview? Pomimo że został zaprojektowany jako ogólne narzędzie AI, podczas testów ujawnił nieoczekiwane możliwości w dziedzinie cyberbezpieczeństwa. Firmy korzystające z modelu mogą wprowadzać odpowiednie prompty, aby zidentyfikować luki w swoich systemach – na przykład w przeglądarce Google Chrome lub innych krytycznych aplikacjach. Następnie zespoły bezpieczeństwa mogą te luki załatać, zanim zostaną one wykorzystane przez cyberprzestępców.

Eksperci podkreślają, że choć model może być niezwykle użyteczny dla obrony cyfrowej, jego potencjalne nadużycia są ogromnym zagrożeniem. Dlatego Anthropic zdecydowało się na tak restrykcyjne podejście, aby zapobiec eskalacji cyberataków.

Źródło: Vox