Nowy model AI, który samodzielnie atakuje systemy
Firma Anthropic ogłosiła niedawno premierę Claude Mythos Preview – modelu AI, który potrafi samodzielnie wyszukiwać luki w oprogramowaniu i automatycznie przekształcać je w działające exploit. Co więcej, robi to bez udziału ekspertów. Odkrywane przez niego podatności dotyczą kluczowych systemów, takich jak systemy operacyjne czy infrastruktura internetowa, które przez tysiące programistów pozostawały niezauważone.
Dlaczego Anthropic nie udostępnia modelu publicznie?
Nowa technologia budzi poważne obawy dotyczące cyberbezpieczeństwa. Urządzenia i usługi, z których korzystamy na co dzień, mogą stać się bardziej narażone na ataki. W odpowiedzi Anthropic zdecydował się ograniczyć dostęp do modelu jedynie do wybranej grupy firm.
Ogłoszenie wywołało burzę w środowisku specjalistów ds. cyberbezpieczeństwa. Brak szczegółowych informacji w komunikacie firmy doprowadził do spekulacji. Niektórzy uważają, że Anthropic nie dysponuje wystarczającą mocą obliczeniową (GPU), aby uruchomić model na szeroką skalę, a ograniczenie dostępu jest jedynie pretekstem. Inni są zdania, że firma trzyma się swojej misji związanej z bezpieczeństwem AI. Wśród ekspertów panuje mieszanka entuzjazmu, sceptycyzmu, rzeczywistości i marketingu – co sprawia, że ocena sytuacji staje się jeszcze trudniejsza.
Mythos jako krok naprzód, choć stopniowy
Choć Mythos stanowi istotny, ale stopniowy postęp, jego wpływ na cyberbezpieczeństwo może być dalekosiężny. Nawet niewielkie zmiany mogą mieć duże znaczenie w dłuższej perspektywie, szczególnie gdy patrzymy na nie przez pryzmat długoterminowych trendów.
Jak AI zmienia oblicze cyberbezpieczeństwa?
Zjawisko Shifting Baseline Syndrome (zespół przesuwającej się linii bazowej) pokazuje, jak ludzie – zarówno laicy, jak i eksperci – bagatelizują długoterminowe zmiany, które zachodzą stopniowo. Dotyczy to zarówno prywatności online, jak i rozwoju AI. Choć luki wykrywane przez Mythos mogłyby zostać znalezione przez modele AI sprzed kilku miesięcy lub lat, nie byłyby dostępne dla modeli sprzed pięciu lat.
Ogłoszenie Mythos przypomina nam, jak daleko zaszła AI w ostatnich latach. Wyszukiwanie podatności w kodzie źródłowym to zadanie, w którym współczesne duże modele językowe sprawdzają się doskonale. Niezależnie od tego, czy do takiej sytuacji doszło już w zeszłym roku, czy stanie się to w przyszłości, od dawna było jasne, że taka zdolność prędzej czy później pojawi się na rynku. Pytanie brzmi: jak się do niej przygotować?
Czy AI stworzy trwałą przewagę atakujących nad obroną?
Nie uważamy, że autonomiczny model hakerski stworzy trwałej asymetrii między atakiem a obroną. Rzeczywistość będzie bardziej złożona. Istnieją trzy główne kategorie podatności, które należy rozróżnić:
- Łatwe do znalezienia, weryfikacji i łatania: Przykładem są standardowe aplikacje webowe hostowane w chmurze, oparte na popularnych stosach oprogramowania. Aktualizacje mogą być wdrażane szybko, co minimalizuje ryzyko.
- Łatwe do znalezienia, trudne do weryfikacji i łatania: Mowa tu o urządzeniach IoT i sprzęcie przemysłowym, które rzadko są aktualizowane lub których modyfikacja jest utrudniona.
- Trudne do znalezienia, ale łatwe do weryfikacji: Złożone systemy rozproszone i platformy chmurowe składają się z tysięcy wzajemnie oddziałujących usług. W takich przypadkach trudno jest odróżnić rzeczywiste podatności od fałszywych alarmów oraz niezawodnie je odtworzyć.
Kluczem jest zatem klasyfikacja podatności na podstawie ich podatności na łatanie oraz trudności w weryfikacji. Taka taksonomia pozwala lepiej zrozumieć, które systemy wymagają natychmiastowej uwagi, a które pozostaną podatne przez długi czas.
Przyszłość cyberbezpieczeństwa w erze AI
Model Mythos to tylko jeden z wielu kroków w ewolucji AI. Jego pojawienie się pokazuje, jak szybko zmienia się krajobraz cyberzagrożeń. Firmy i instytucje muszą dostosować swoje strategie bezpieczeństwa, aby sprostać nowym wyzwaniom. Obejmuje to inwestycje w zaawansowane narzędzia do wykrywania podatności, automatyzację procesów łatania oraz szkolenie zespołów ds. cyberbezpieczeństwa w zakresie współpracy z AI.
Choć Mythos nie trafi do powszechnego użytku, jego istnienie stanowi sygnał ostrzegawczy. Przyszłość cyberbezpieczeństwa zależy od tego, jak szybko i skutecznie świat technologii zareaguje na rosnące możliwości sztucznej inteligencji.