Fałszywe oskarżenia wygenerowane przez Google AI
Nowy pozew wniesiony przeciwko firmie Alphabet, będącej właścicielem Google, ujawnia poważny problem z wiarygodnością wyników wyszukiwania. Według dokumentów sądowych, Google AI Overview miało wygenerować fałszywe oskarżenia o przestępstwo seksualne wobec mężczyzny z Utah, które pojawiły się wyłącznie w wynikach AI, a nie w żadnych źródłach zewnętrznych.
Konsekwencje dla poszkodowanego
Mężczyzna, którego nazwisko nie zostało ujawnione w pozwie, doświadczył poważnych konsekwencji psychicznych, społecznych i finansowych. Według dokumentów sądowych:
- Otrzymywał wrogie wiadomości, telefony i bezpośrednie konfrontacje, w których domagano się wyjaśnień dotyczących rzekomego przestępstwa.
- Członkowie jego rodziny i przyjaciele zakwestionowali jego charakter na podstawie fałszywych informacji.
- Związki osobiste zostały nadszarpnięte, gdy rodzina partnera skonfrontowała go z oskarżeniami.
- W miejscowych sklepach i stacjach benzynowych nieznajomi podchodzili do niego, aby zapytać o rzekome „zarzuty” lub wygłaszać obraźliwe uwagi.
- Współpracownicy i usługodawcy zaczęli unikać kontaktu z nim, a jedna z firm sprzątających zaprzestała świadczenia usług po tym, jak matka pracownika dowiedziała się o oskarżeniach.
Pomimo prób wyjaśnienia, że oskarżenia są całkowicie fałszywe, wielu ludzi odmówiło uwierzenia w jego słowa, opierając się na informacjach przedstawionych przez Google.
Zniszczone życie osobiste i zawodowe
Fałszywe oskarżenia doprowadziły do poważnych strat finansowych. Mężczyzna stracił klientów, kontrakty zostały anulowane, a on sam stanął w obliczu groźby bankructwa. Cierpienie emocjonalne i społeczne było równie dotkliwe – stracił zaufanie bliskich osób i został wykluczony z życia społeczności lokalnej.
„Ludzie, którzy wcześniej traktowali mnie normalnie, zaczęli unikać kontaktu. Moje życie osobiste i zawodowe legło w gruzach. Wszystko przez fałszywe informacje wygenerowane przez sztuczną inteligencję.”
Kolejny przypadek „libel-by-AI”
To nie pierwszy taki przypadek, w którym sztuczna inteligencja generuje szkodliwe i fałszywe informacje. Według ekspertów, problem polega nie na „śmieciu na wejściu, śmieciu na wyjściu” (ang. Garbage In, Garbage Out), lecz na tym, że algorytm AI samodzielnie tworzy fałszywe treści, które następnie są traktowane jako wiarygodne źródło informacji.
Prawnicy zajmujący się tego typu sprawami podkreślają, że odpowiedzialność za takie sytuacje powinna spoczywać na firmach technologicznych, które udostępniają narzędzia AI bez odpowiednich zabezpieczeń.
Reakcja Google i konsekwencje prawne
Sprawa trafiła do federalnego sądu w Utah. Pozew został wniesiony niedawno, a dokumenty sądowe zawierają zrzuty ekranu rzekomo wygenerowanych przez AI Overview. Według doniesień, Google nie wydało jeszcze oficjalnego stanowiska w tej sprawie, jednak tego typu sytuacje stają się coraz częstsze i budzą coraz większe zaniepokojenie.
Eksperci prawnicy i obrońcy praw cyfrowych apelują o wprowadzenie surowszych regulacji dotyczących odpowiedzialności platform cyfrowych za treści generowane przez sztuczną inteligencję.