Siedem pozwów przeciwko firmie OpenAI zostało wniesionych w środę w sądzie w Kalifornii. Ich autorzy twierdzą, że sztuczna inteligencja mogła zapobiec jednej z najtragiczniejszych masakr szkolnych w historii Kanady. Według dokumentów, wewnętrzny zespół ds. bezpieczeństwa OpenAI ponad osiem miesięcy przed atakiem ostrzegał przed niebezpiecznym użytkownikiem ChatGPT, który później dokonał ataku.
Eksperci zidentyfikowali konto powiązane z przyszłym sprawcą jako realne zagrożenie związane z przemocą z użyciem broni. W takich przypadkach OpenAI powinno powiadomić organy ścigania – zwłaszcza że policja miała już wcześniej akta na sprawcę i wcześniej usunęła broń z jego domu. Tymczasem firma postanowiła zignorować ostrzeżenia zespołu bezpieczeństwa.
Jak donosi The Wall Street Journal, liderzy OpenAI uznali, że ochrona prywatności użytkownika oraz potencjalny stres związany z interwencją policji są ważniejsze niż ryzyko przemocy. Zamiast powiadomić władze, firma jedynie dezaktywowała konto, a następnie poinformowała sprawcę, jak ponownie uzyskać dostęp do ChatGPT, rejestrując się pod innym adresem e-mail. Takie postępowanie zostało opisane w pozwach.
Sprawca masakry szkolnej w Uvalde w Teksasie w 2022 roku również korzystał z narzędzi AI przed atakiem. To kolejny przykład, jak technologie mogą być wykorzystywane do planowania aktów przemocy, a jednocześnie jak firmy technologiczne radzą sobie z odpowiedzialnością za swoje produkty.
Pozwy przeciwko OpenAI podnoszą istotne pytania o rolę sztucznej inteligencji w zapobieganiu przemocy oraz odpowiedzialność firm technologicznych za bezpieczeństwo użytkowników. Czy ochrona prywatności powinna przeważać nad ochroną życia ludzkiego?