Zespół Google Threat Intelligence Group (GTIG) wykrył i zneutralizował luki zero-day opracowaną z wykorzystaniem sztucznej inteligencji, zanim cyberprzestępcy zdążyli ją masowo wykorzystać. Informację o incydencie opublikowano w najnowszym raporcie firmy.

To pierwszy udokumentowany przypadek, w którym AI posłużyło do stworzenia exploita, co potwierdza obawy ekspertów o rosnącym zagrożeniu ze strony zautomatyzowanych ataków. Według Johna Hultquista, głównego analityka GTIG, odkrycie to jest dopiero „wierzchołkiem góry lodowej”.

Jak AI stworzyło exploita?

Google nie ujawniło szczegółów technicznych ani nazwy podatnego narzędzia, jednak potwierdziło, że luka dotyczyła skryptu w Pythonie, który umożliwiał obejście uwierzytelniania dwuskładnikowego. Badacze nie podali również, w jaki sposób wykryli exploit ani która grupa cyberprzestępcza przygotowywała się do jego masowego użycia.

GTIG podejrzewa, że atakujący korzystali z AI na każdym etapie tworzenia exploita, choć nie jest jeszcze jasne, czy to sztuczna inteligencja sama odkryła lukę. Ślady działalności AI znaleziono w kodzie exploita – m.in. nietypowe komentarze w Pythonie, nadmierne adnotacje oraz błędnie przypisany, nieistniejący wynik CVSS (Common Vulnerability Scoring System).

Cyberprzestępcy coraz częściej sięgają po AI

Eksperci z GTIG od dawna ostrzegają przed rosnącym zagrożeniem ze strony AI w kontekście cyberataków. Już w 2024 roku ich własny agent AI, Big Sleep, zidentyfikował lukę zero-day w popularnym oprogramowaniu. Hultquist podkreśla, że obecne odkrycie to dopiero początek poważniejszych zagrożeń.

„Gra już się rozpoczęła, a krzywa rozwoju możliwości AI w kontekście ataków będzie bardzo stroma. Możemy spodziewać się coraz bardziej dewastujących ataków zero-day, zwłaszcza w miarę wzrostu zaawansowania narzędzi.”

— John Hultquist, główny analityk GTIG

Google wykluczyło, że atakujący korzystali z modeli AI takich jak Gemini lub Mythos firmy Anthropic, gdyż kod exploita zawierał charakterystyczne „ślady” typowe dla innych systemów.

Dlaczego to tak niebezpieczne?

Wykorzystanie AI do tworzenia exploitów otwiera nowe możliwości dla cyberprzestępców. Sztuczna inteligencja może:

  • szybciej identyfikować podatności w oprogramowaniu;
  • automatyzować proces tworzenia złośliwego kodu;
  • omijać tradycyjne metody wykrywania ataków.

Hultquist podkreśla, że choć samo odkrycie exploita opracowanego przez AI jest alarmujące, to jeszcze bardziej niepokojące są prognozy dotyczące przyszłych ataków. Według ekspertów, w najbliższym czasie możemy spodziewać się wzrostu liczby i skali ataków wykorzystujących AI.

Źródło: CyberScoop