En ny rettssak mot Google, Murray v. Alphabet, Inc., som nylig ble overført til føderal domstol, avdekker hvordan selskapets AI-verktøy AI Overview skal ha produsert falske anklager om en mann fra Utah. Ifølge saken genererte algoritmen påstander om seksuelle overgrep som ikke eksisterte noe sted på nettet før AI-en tok dem med i sine sammendrag.
Dette skiller seg fra tidligere tilfeller der falske opplysninger stammer fra eksisterende, men feilaktige kilder. Her hevder saken at AI-en selv har konstruert anklagene, noe som representerer en ny og farlig dimensjon av AI-relatert ærekrenkelse.
Alvorlige konsekvenser for den anklagede
Den falske informasjonen har fått omfattende konsekvenser for mannen, som har blitt utsatt for en vedvarende strøm av fiendtlige henvendelser. Han har mottatt:
- Anklagende meldinger og telefonsamtaler fra ukjente
- Konfrontasjoner fra familie og venner som stiller spørsmål ved hans integritet
- Ødelagte sosiale relasjoner, inkludert en anstrengt romantisk forbindelse
- Direkte møter med fremmede i butikker og på bensinstasjoner som konfronterer ham med anklagene
- Tap av tjenester, som rengjøring av hjemmet, etter at leverandører nektet å fortsette på grunn av morens reaksjon
Moren til rengjøringspersonalet gikk så langt som å kalle ham en «seksuelt overgrepere» og spredte dette ryktet videre i lokalmiljøet, før han fikk mulighet til å forsvare seg.
Økonomisk og personlig ruin
Til tross for at mannen gang på gang har forsøkt å korrigere feilinformasjonen, har mange nektet å høre på ham eller valgt å tro på Googles AI-sammendrag. Konsekvensene har vært katastrofale:
- Tap av kunder og kontrakter
- Økonomisk press og trussel om konkurs
- Ødelagt personlig og profesjonell tillit
Saken illustrerer hvor sårbare enkeltpersoner er overfor AI-generert informasjon, spesielt når store teknologiselskaper ikke klarer å kontrollere innholdet som spres.
Tidligere saker og juridiske analyser
Denne saken er ikke den første der AI har ført til ærekrenkelse. Flere lignende tilfeller har blitt dokumentert, og juridiske eksperter advarer om at dette kan bli et stadig større problem ettersom AI-verktøy blir mer utbredt. En tidligere analyse fra 2021, publisert på Reason.com, peker på at dagens lovgivning ikke er tilstrekkelig rustet til å håndtere slike situasjoner.
Analysen understreker at ansvaret for innholdet som genereres av AI ofte faller mellom to stoler – verken utviklerne av algoritmene eller plattformene tar fullt ansvar for konsekvensene av falske påstander.