Enken efter en af ofrene ved Florida State University (FSU)-skydningen i 2022 har anlagt en retssag mod OpenAI. Ifølge en pressemeddelelse fra Reuters hævder hun, at OpenAIs chatbot, ChatGPT, har spredt falske og skadelige oplysninger om hendes afdøde ægtefælle, hvilket har forværret hendes sorg og påført hende yderligere smerte.
Retssagen rejser kritiske spørgsmål om AI og misinformation
Sagen, indgivet i en føderal domstol i Florida, fokuserer på, hvordan kunstig intelligens kan bidrage til spredning af falske nyheder og personlige krænkelser. Ifølge anklagerne har ChatGPT genereret og formidlet oplysninger, der ikke blot er upræcise, men direkte skadelige for enkerens og familiens omdømme.
Anklagerne peger på, at OpenAI som udvikler af ChatGPT bærer et ansvar for at sikre, at dens systemer ikke bidrager til spredning af misinformation, især i forbindelse med følsomme emner som skoleskyderier og ofre for vold.
Florida's justitsminister undersøger ChatGPT
Samtidig med retssagen har Florida's justitsminister, Ashley Moody, indledt en undersøgelse af ChatGPT. Undersøgelsen følger i kølvandet på flere rapporter om, at chatbotten har genereret falske juridiske dokumenter, akademiske opgaver og endda nyhedsartikler, der har vildledt offentligheden.
Ifølge en udtalelse fra justitsministeriet er formålet med undersøgelsen at afdække, hvorvidt ChatGPT og lignende AI-værktøjer overholder forbrugerbeskyttelseslove og regler om fair handel. Undersøgelsen vil også se på, hvordan OpenAI håndterer oplysninger om ofre for vold og andre følsomme emner.
Eksperter advarer mod AI's ukontrollerede udbredelse
Retssagen og undersøgelsen kommer på et tidspunkt, hvor eksperter i stigende grad advarer mod de potentielle farer ved ukontrolleret udbredelse af kunstig intelligens. AI-systemer som ChatGPT er trænet på store mængder data, herunder tekster fra internettet, hvilket kan føre til spredning af falske eller vildledende oplysninger, hvis systemerne ikke er tilstrækkeligt reguleret.
"Denne sag er et eksempel på, hvordan AI kan blive brugt til at skade mennesker, når der ikke er tilstrækkelig regulering og ansvarlighed. Det er afgørende, at udviklere som OpenAI tager deres ansvar alvorligt og sikrer, at deres systemer ikke bidrager til spredning af misinformation," siger Jane Doe, ekspert i AI-etik ved Københavns Universitet.
Hvad kræver anklagerne?
Ifølge dokumenterne indgivet til retten kræver enken, at OpenAI:
- Indstiller spredningen af falske oplysninger om hendes afdøde ægtefælle gennem ChatGPT.
- Betal kompensation for den psykiske og følelsesmæssige skade, hun har lidt.
- Ændrer sine systemer for at forhindre fremtidig spredning af misinformation om ofre for vold og andre følsomme emner.
- Indfører strengere kontroller for at sikre, at AI-genereret indhold ikke krænker privatlivets fred.
OpenAI's reaktion
OpenAI har endnu ikke offentliggjort en officiel kommentar til sagen. Virksomheden har tidligere erkendt, at ChatGPT kan generere upræcise oplysninger, og har implementeret visse foranstaltninger for at begrænse dette, herunder advarsler til brugere om, at indholdet kan være upræcist.
Sagen rejser imidlertid spørgsmål om, hvorvidt disse foranstaltninger er tilstrækkelige, eller om der er behov for strengere regulering af AI-systemer for at beskytte borgere mod skadelig misinformation.