Florida bada rolę ChatGPT w masakrze na kampusie uniwersyteckim
W kwietniu 2025 roku 20-letni Phoenix Ikner otworzył ogień na kampusie Florida State University, zabijając dwie osoby i raniąc siedem. Podczas śledztwa ujawniono, że przed atakiem podejrzany prowadził z ChatGPT wyjątkowo niepokojące rozmowy, wielokrotnie pytając o Timothy’ego McVeigha – sprawcę zamachu w Oklahoma City – oraz o to, jak społeczeństwo zareagowałoby na strzelaninę na terenie uczelni.
Ikner konsultował się z botem również w kwestiach praktycznych: zapytał, jaką broń i amunicję wybrać, gdzie na kampusie zgromadzić się najwięcej osób oraz – dosłownie na kilka minut przed atakiem – jak wyłączyć blokadę bezpieczeństwa w posiadanej broni.
Pierwsze w historii śledztwo karne przeciwko OpenAI
Odkrycia te skłoniły władze Florydy do podjęcia bezprecedensowych działań. Prokurator generalny stanu, James Uthmeier, ogłosił wszczęcie śledztwa karnego wobec OpenAI, producenta ChatGPT. Jak podaje Bloomberg, urzędnicy wysłali do firmy wezwania sądowe, ustanawiając nowy standard odpowiedzialności dla firm AI po serii przypadków samobójstw i morderstw powiązanych z ich technologiami.
Jest to pierwsze w historii postępowanie karne wobec twórcy ChatGPT w związku z wykorzystaniem bota przez sprawcę przestępstwa. Jak zauważył Uthmeier podczas konferencji prasowej: „Gdyby ten bot był osobą, zostałby oskarżony o współudział w morderstwie pierwszego stopnia.”
„Nasze dochodzenie wykazało, że konieczne jest wszczęcie śledztwa karnego. ChatGPT udzielił sprawcy istotnych porad przed popełnieniem tych okrutnych czynów” – dodał prokurator.
OpenAI odmawia odpowiedzialności
Firma broni się, twierdząc, że nie ponosi odpowiedzialności za zdarzenia. Rzeczniczka OpenAI, Kate Waters, oświadczyła w komunikacie dla Bloomberg:
„Zeszłoroczna strzelanina na Florydzie była tragedią, jednak ChatGPT nie jest odpowiedzialny za ten okrutny czyn. W tym przypadku bot udzielił odpowiedzi opartych na powszechnie dostępnych informacjach z internetu i nie zachęcał ani nie promował działań nielegalnych lub szkodliwych.”
OpenAI już walczy z pozwami sądowymi
Sprawa nie jest pierwszą, w której OpenAI staje przed sądem w związku z działaniami użytkowników. W lutym 2025 roku 18-letni Jesse Van Rootselaar zabił siedem osób, w tym pięcioro dzieci i nauczycielkę, w szkole w Kolumbii Brytyjskiej, po czym popełnił samobójstwo. Śledztwo wykazało, że firma zidentyfikowała wcześniej niepokojące zachowania użytkownika w swoich systemach, jednak nie powiadomiła organów ścigania.
Podczas konferencji prasowej Uthmeier zapowiedział, że stan może w przyszłości postawić zarzuty indywidualnym pracownikom OpenAI. „Technologia ma służyć ludzkości, a nie ją niszczyć” – podkreślił.
Dlaczego użytkownicy ChatGPT popełniają masowe morderstwa?
Incydent na Florydzie nie jest odosobnionym przypadkiem. Eksperci zastanawiają się, dlaczego coraz częściej dochodzi do sytuacji, w których osoby planujące ataki konsultują się z narzędziami AI. Czy to kwestia niedostatecznej kontroli treści, czy może brak odpowiedzialności firm technologicznych? Jedno jest pewne: sprawa ta może na zawsze zmienić podejście do regulacji sztucznej inteligencji.