Falske anklager spredt af Googles AI
En ny sag i USA illustrerer de farlige konsekvenser af fejlbehæftede oplysninger genereret af kunstig intelligens. Ifølge en nyligt indgivet klage i Murray v. Alphabet, Inc. påstod Googles AI-genererede oversigt, at en mand fra Utah havde begået en alvorlig sexforbrydelse – uden nogen form for grundlag i virkeligheden.
AI’en skabte anklagerne selv
Det særlige ved sagen er, at de falske anklager ikke stammer fra eksisterende upålidelige kilder, men direkte fra Googles AI-system. Klageren, Mark Murray, hævder, at AI’en selvstændigt har konstrueret anklagerne og præsenteret dem som fakta i søgeresultaterne. Dette adskiller sig fra tidligere sager, hvor fejlbehæftede oplysninger stammede fra eksisterende kilder, som AI’en blot opsummerede.
Alvorlige konsekvenser for offeret
De falske anklager har haft katastrofale følger for Murray. Han har været udsat for:
- Chikane og trusler fra fremmede, herunder anklagende samtaler og fysiske konfrontationer
- Ødelagte personlige relationer, herunder spændinger med familie og venner
- Økonomiske tab på grund af annullerede kontrakter og mistede kunder
- Fysisk isolation, da tidligere bekendte har undgået kontakt
En af de mest alvorlige hændelser involverede en rengøringsassistent, hvis mor havde hørt om anklagerne. Hun forbød sine børn at arbejde hos Murray og spredte rygtet videre i lokalområdet, inden han overhovedet havde mulighed for at forsvare sig.
Forsøg på at rette op på skaden
Murray har forsøgt at korrigere misforståelserne ved at forklare sandheden, men mange har nægtet at lytte eller valgt at tro på AI’ens version. Den fortsatte spredning af falske oplysninger har ført til betydelige psykiske og økonomiske skader.
Retssagens betydning for fremtidens AI
Sagen rejser vigtige spørgsmål om ansvar og pålidelighed, når det kommer til AI-genereret indhold. Hvem bærer ansvaret, når en algoritme producerer falske og skadelige påstande? Og hvordan kan ofre for sådanne fejl beskyttes?
Murrays sag er blot ét eksempel på et stigende antal sager, hvor AI-systemer har spredt falske og skadelige oplysninger. Eksperter advarer om, at sådanne hændelser kan blive mere almindelige, medmindre der indføres strengere regulering og kontrol med AI-genereret indhold.
Hvad siger Google?
Der er endnu ikke kommet en officiel udtalelse fra Google vedrørende sagen. Virksomheden har tidligere erkendt, at AI-genereret indhold kan indeholde fejl, men har ikke kommenteret specifikt på denne sag.
Sagen er netop blevet overført til føderal ret i USA, og det ventes, at den vil sætte præcedens for fremtidige sager om ansvar for AI-genererede fejl.