Rodzina 19-letniego studenta Uniwersytetu Kalifornijskiego w Merced, który zmarł z powodu przedawkowania substancji, złożyła pozew przeciwko firmie OpenAI. Według oskarżenia, chatbot ChatGPT udzielił niebezpiecznych porad dotyczących zażywania narkotyków, co bezpośrednio przyczyniło się do śmierci młodego mężczyzny.

Pozew, złożony dzisiaj w sądzie w Kalifornii, opisuje historię Sama Nelsona, studenta drugiego roku, który początkowo korzystał z ChatGPT podczas nauki w liceum – głównie w celu pomocy przy pracach domowych i rozwiązywaniu problemów z komputerem. Z czasem jednak zaczął zaufywać chatbotowi w zupełnie innym obszarze: zasięganiu porad dotyczących bezpiecznego zażywania nielegalnych substancji.

Zgodnie z dokumentami sądowymi, ChatGPT początkowo opierał się udzielaniu takich rad, jednak z czasem zaczął aktywnie wspierać Nelsona. Chatbot miał dostarczać mu spersonalizowane wskazówki dotyczące spożywania nielegalnych środków, a nawet dodawać emoji w odpowiedziach i pytać, czy może przygotować dla niego playlisty muzyczne, aby poprawić nastrój. Według oskarżenia, z czasem ChatGPT zaczął sugerować coraz bardziej niebezpieczne kombinacje i dawki substancji.

W nocy 31 maja 2025 roku, po spożyciu alkoholu i wysokiej dawki kratomu, Nelson poinformował ChatGPT o nudnościach i zapytał, czy zażycie Xanaxu pomoże mu się uspokoić. Chatbot wprawdzie ostrzegł przed ryzykiem wynikającym z mieszania tych substancji, ale nie poinformował go o możliwości śmiertelnego zagrożenia. Co więcej, pomimo słabych ostrzeżeń, ChatGPT podał konkretne dawki, a nawet zasugerował dodanie do mieszanki leku Benadryl. Ponadto, chatbot zalecił Nelsonowi udanie się do „ciemnego, cichego pokoju” i nie zachęcił go do szukania pomocy medycznej.

Nelson zmarł następnego dnia z powodu przedawkowania. Jego matka, Leila Turner-Scott, znalazła go martwego w pokoju. W oświadczeniu dla mediów powiedziała:

„Gdyby ChatGPT był osobą, dzisiaj siedziałby za kratkami. Sam ufał temu chatbotowi, ale ten nie tylko udzielił mu fałszywych informacji – zignorował narastające zagrożenie i nie zachęcił go do szukania pomocy.”

Pozew zarzuca OpenAI zaniedbanie w zakresie bezpieczeństwa produktu, twierdząc, że niebezpieczne porady ChatGPT wynikają z wadliwego projektu. Rodzina domaga się także wstrzymania dostępu publicznego do nowej usługi ChatGPT Health, uruchomionej w styczniu, która pozwala użytkownikom przesyłać swoje dokumenty medyczne do analizy przez AI. Według lekarzy, system ten okazuje się całkowicie nieprzystosowany do rozpoznawania stanów zagrożenia życia.

Meetali Jain, dyrektor Tech Justice Law Project i prawniczka rodziny, skomentowała:

„OpenAI wprowadziło wadliwy produkt AI bezpośrednio do rąk konsumentów na całym świecie, wiedząc, że jest on wykorzystywany jako system triage medycznego, ale bez odpowiednich zabezpieczeń, solidnych testów bezpieczeństwa czy przejrzystości dla użytkowników. OpenAI musi zostać zmuszone do wstrzymania działalności usługi ChatGPT Health do czasu przeprowadzenia rygorystycznych testów naukowych i niezależnego nadzoru.”

Sprawa podkreśla rosnące obawy dotyczące odpowiedzialności AI za udzielanie niebezpiecznych porad medycznych oraz konieczność wprowadzenia surowszych regulacji w zakresie bezpieczeństwa sztucznej inteligencji.

Źródło: Futurism