Firma budzi się w środku nocy z wiadomością o poważnym incydencie bezpieczeństwa. Szczegóły są precyzyjne, techniczne i wydają się wiarygodne – systemy zostały naruszone, dane wyciekły. Tyle że nic takiego się nie wydarzyło. Cała historia została wygenerowana przez model językowy, który uzupełnił brakujące informacje oparte na realistycznych wzorcach. Zanim firma zdoła zweryfikować doniesienia, dziennikarz renomowanego medium prosi o komentarz. W ciągu kilku godzin zespół ds. komunikacji przygotowuje oświadczenie i uruchamia procedury kryzysowe, reagując na wydarzenie, które nigdy nie miało miejsca.

To nie jest odosobniony przypadek. Drugi scenariusz rozpoczyna się od realnego ataku, który został już dawno rozwiązany i zamknięty. Rok później, w wyniku przebudowy strony internetowej mediów, artykuł o incydencie otrzymuje nowy adres URL i aktualizowany znacznik czasu. Algorytmy agregujące wiadomości oparte na AI wykrywają „nowy” materiał i traktują go jako aktualną informację. Firma zaczyna odbierać zapytania dotyczące zdarzenia, które miało miejsce lata temu – choć od dawna zostało wyjaśnione.

Trzeci przypadek dotyczy artykułu w branżowym czasopiśmie cyberbezpieczeństwa, opisującego atak typu BEC (Business Email Compromise) na brytyjską firmę, którego straty oszacowano na blisko miliard funtów. Artykuł cytował znanego badacza bezpieczeństwa, który jednak nigdy nie udzielił wywiadu. Cytaty zostały całkowicie sfabrykowane przez AI, a redakcja potraktowała je jako fakty. Te trzy historie ujawniają zupełnie nowy wymiar zagrożeń, z którym organizacje jeszcze nie musiały się mierzyć.

AI tworzy zagrożenia, których nikt się nie spodziewał

Sztuczna inteligencja zyskała zdolność do generowania wiarygodnych, technicznie szczegółowych narracji o incydentach bezpieczeństwa – wraz z nazwiskami rzekomych źródeł i wystarczającą dozą wiarygodności, by wywołać pełnowymiarową reakcję kryzysową. Każda organizacja, która bagatelizuje to zjawisko, ryzykuje, że AI-wygenerowana fikcja błyskawicznie przerodzi się w realny kryzys.

Dotychczasowa zasada cyberbezpieczeństwa była prosta: coś się dzieje, potem reagujemy. Ta logika przestaje obowiązywać. Systemy AI generują, wzmacniają i walidują narracje przed tym, jak zespoły bezpieczeństwa zdołają cokolwiek potwierdzić. Raz wprowadzona do ekosystemu informacyjnego, taka historia może trafić do systemów analizy zagrożeń, platform oceny ryzyka i zautomatyzowanych przepływów pracy. Fikcja staje się sygnałem.

Nowa klasa fałszywych alarmów

Dla zespołów ds. bezpieczeństwa to zupełnie nowa kategoria zagrożeń. Nie chodzi już o fałszywe alerty z błędnie skonfigurowanych narzędzi, ale o całkowicie ukształtowaną, zewnętrzną narrację, która wydaje się wiarygodna. Wygenerowany przez AI incydent może uruchomić wewnętrzne dochodzenia, eskalację na szczebel zarządu i podjęcie działań obronnych. Czas i zasoby zostają zmarnowane na obalanie wydarzenia, którego nigdy nie było. Co gorsza, taka narracja może wpłynąć na zachowanie prawdziwych atakujących.

Przestępcy cybernetyczni mogą bowiem wykorzystywać sfabrykowane historie o incydentach jako pretekst do kolejnych ataków. Wiadomości phishingowe odwołujące się do rzekomego „znanego incydentu” stają się bardziej wiarygodne. Próby podszywania się pod dział IT lub zespoły reagowania na incydenty zyskują na skuteczności. Narracja staje się częścią powierzchni ataku.

Jakie to ma konsekwencje dla bezpieczeństwa?

Eksperci podkreślają, że organizacje muszą jak najszybciej dostosować swoje strategie reagowania na incydenty do nowej rzeczywistości. Kluczowe staje się:

  • Weryfikacja źródeł: Każda nietypowa informacja o incydencie powinna być traktowana z podejrzliwością, zwłaszcza jeśli pochodzi z niepotwierdzonych kanałów.
  • Monitorowanie mediów i agregatorów: Konieczne jest śledzenie, jakie narracje na temat firmy pojawiają się w internecie, aby w porę wykryć ewentualne fałszywe doniesienia.
  • Przygotowanie procedur kryzysowych: Zespoły ds. bezpieczeństwa i komunikacji powinny opracować scenariusze postępowania na wypadek ataku AI-generowanej dezinformacji.
  • Edukacja pracowników: Szkolenia z zakresu rozpoznawania fałszywych narracji i technik socjotechnicznych pomogą ograniczyć ryzyko udanych ataków.
  • Współpraca z mediami: Budowanie partnerskich relacji z dziennikarzami może pomóc w szybkim korygowaniu błędnych informacji.

Jak podkreślają autorzy badania, pełne ujawnienie szczegółów trzech opisanych incydentów mogłoby wyrządzić szkodę, dlatego pewne informacje zostały celowo pominięte. CyberScoop potwierdził jednak z autorami, że wszystkie opisane przypadki miały rzeczywiście miejsce.

Źródło: CyberScoop