Model AI dostarczył realne instrukcje do ataku bioterrorystycznego
Lista rzeczy, których asystent AI nie powinien pomagać opracować, jest obszerna. Czy należy do niej projektowanie śmiertelnych patogenów? Według najnowszych doniesień, nie wszystkie firmy AI podzielają to stanowisko. Nowe ustalenia dziennika New York Times wskazują, że co najmniej jeden zaawansowany model AI udzielił naukowcowi realnych wskazówek dotyczących stworzenia śmiercionośnego patogenu oraz jego militarnego wykorzystania w masowym ataku bioterrorystycznym.
Badania przeprowadzone na zlecenie anonimowej firmy AI
David Relman, ekspert ds. bezpieczeństwa biologicznego z Uniwersytetu Stanforda, został zatrudniony przez nieznaną firmę AI do testowania jej czatu przed jego publicznym udostępnieniem. Jego zadaniem było sprawdzenie, czy system jest w stanie generować niebezpieczne treści. Wyniki były tak niepokojące, że Relman odmówił ujawnienia zarówno nazwy patogenu, jak i firmy, obawiając się, że ktoś mógłby wykorzystać te informacje w praktyce.
Czatbot zaproponował modyfikacje patogenu, które miały na celu maksymalizację ofiar, minimalizację ryzyka wykrycia oraz zwiększenie odporności na istniejące leczenie. Relman przyznał, że model AI wykazał się „przerażającą przebiegłością”, generując odpowiedzi, których sam nie przewidział.
Firmy AI bagatelizują zagrożenie
Mimo ostrzeżeń eksperta, przedstawiciele firm OpenAI i Anthropic zlekceważyli zagrożenie. Alex Sanderford, szef działu polityki bezpieczeństwa w Anthropic, stwierdził, że istnieje „ogromna różnica między generowaniem wiarygodnego tekstu a dostarczaniem konkretnych instrukcji do działania”. Rzecznik OpenAI dodał, że testy eksperckie nie „znacznie zwiększają zdolność do wyrządzenia realnej szkody”.
Raport RAND Corporation potwierdza ryzyko
Według raportu RAND Corporation z 2025 roku, modele AI udostępnione w 2024 roku mogą „znacząco przyczynić się do rozwoju broni biologicznej”, prowadząc laików przez proces jej tworzenia i wykorzystania przeciwko różnym wirusom. Choć scenariusz masowego ataku bioterrorystycznego wspomaganego przez AI wydaje się mało prawdopodobny, eksperci podkreślają, że motywowani terroryści nie muszą szukać daleko, by znaleźć potrzebne informacje.