Firma Google poinformowała po raz pierwszy o wykryciu i zablokowaniu exploita zero-day, którego powstanie było wspomagane przez sztuczną inteligencję. Według raportu Google Threat Intelligence Group (GTIG), za atakiem stali „znaczących cyberprzestępcy”, którzy planowali przeprowadzenie masowej akcji wykorzystującej lukę.
Udałoby im się wówczas ominąć uwierzytelnianie dwuskładnikowe w nieznanym „otwartoźródłowym, webowym narzędziu do administracji systemami”. Badacze z Google znaleźli w kodzie Pythona używanym w exploicie ślady sugerujące udział AI, takie jak „halucynacyjny wynik CVSS” oraz „ustrukturyzowany, podręcznikowy” format spójny z danymi szkoleniowymi modeli LLM.
Eksperci podkreślają, że exploit wykorzystywał lukę w zabezpieczeniach, która mogła zostać użyta do przeprowadzenia szeroko zakrojonej kampanii cybernetycznej. Choć szczegóły techniczne nie zostały ujawnione, Google ostrzega, że tego typu ataki stają się coraz powszechniejsze wraz z rozwojem narzędzi opartych na AI.
Incydent ten pokazuje, jak sztuczna inteligencja może być wykorzystywana zarówno do tworzenia, jak i wykrywania zagrożeń. Zdaniem ekspertów, cyberprzestępcy coraz częściej sięgają po AI, aby automatyzować ataki i zwiększać ich skuteczność.