En make till en av de dödsoffer som föll offer för skolskjutningen på Florida State University (FSU) i november 2022 har nu väckt en rättslig process mot OpenAI. Anledningen är påstådda felaktigheter i information som genererats av företagets AI-verktyg, ChatGPT.
Enligt en rapport från The New York Times hävdar den sörjande maken att ChatGPT har spridit felaktig och skadlig information om hans avlidna hustru. Informationen, som påstods komma från en obekräftad källa, har enligt honom skadat hennes minne och orsakat ytterligare smärta för familjen.
Denna rättsprocess är en del av en växande trend där individer och organisationer riktar kritik mot AI-företag för bristande kontroll över sina system. OpenAI har tidigare ställts inför liknande anklagelser, men denna gång är det första gången en anhörig till ett offer från en skolskjutning är inblandad.
Floridas justitieminister inleder granskning av ChatGPT
Parallellt med den rättsliga processen har Floridas justitieminister, Ashley Moody, meddelat att hon inleder en granskning av ChatGPT. Moody uppger att granskningen syftar till att undersöka om AI-verktyget kan ha bidragit till spridningen av desinformation eller skadlig information.
I ett uttalande säger Moody:
"Vi måste säkerställa att AI-verktyg inte används för att sprida lögner eller skada individer eller samhällen. Den här granskningen kommer att hjälpa oss att förstå vilka åtgärder som krävs för att skydda allmänheten."
OpenAI:s svar och tidigare incidenter
OpenAI har ännu inte officiellt kommenterat den rättsliga processen eller Floridas granskning. Företaget har tidigare ställts inför kritik för att dess AI-verktyg ibland genererar felaktig eller missvisande information. I tidigare fall har OpenAI erkänt bristerna och lovat att förbättra sina system för att minska risken för felaktigheter.
En talesperson för OpenAI uppgav tidigare i år:
"Vi tar dessa frågor på största allvar och arbetar aktivt för att förbättra våra system och säkerställa att de genererar korrekt och pålitlig information."
Vad innebär detta för framtiden för AI?
Denna händelse belyser de utmaningar som AI-företag står inför när det gäller att kontrollera och säkerställa kvaliteten på den information som deras system genererar. Med ökad användning av AI-verktyg i samhället blir frågor om ansvar och transparens allt mer viktiga.
Experter menar att denna typ av rättsliga processer och granskningar kan leda till striktare regleringar och krav på AI-företag. Det kan också innebära att företag som OpenAI måste investera mer i säkerhetsåtgärder och kontrollmekanismer för att undvika liknande incidenter i framtiden.
Vad händer nu?
Den rättsliga processen mot OpenAI kommer att fortsätta under de kommande månaderna. Samtidigt kommer Floridas granskning att undersöka huruvida ChatGPT har bidragit till spridningen av desinformation. Båda processerna kan komma att få betydande konsekvenser för hur AI-verktyg regleras och används i framtiden.