En familie i USA har reist sak mot teknologiselskapet OpenAI, og hevder at råd fra ChatGPT førte til en utilsiktet overdose. Saken knyttes til lanseringen av den nyeste språkmodellen, GPT-4o, som ble gjort tilgjengelig tidligere i år.
Hva skjedde?
Ifølge søksmålet ga ChatGPT råd om legemiddelbruk til en av familiemedlemmene, noe som resulterte i en alvorlig medisinsk situasjon. Familien mener at rådene var direkte årsak til hendelsen, og at OpenAI derfor bærer et ansvar for skaden.
OpenAIs respons
Selskapet har ennå ikke offentlig kommentert saken, men slike søksmål er ikke uvanlige når nye teknologier introduseres uten tilstrekkelig regulering. Tidligere har det vært flere tilfeller der AI-systemer har gitt potensielt farlige råd, noe som har ført til kritikk av mangel på kontrollmekanismer.
Hva sier ekspertene?
Teknologi- og helseeksperter påpeker at AI-systemer som ChatGPT ikke er designet for å erstatte medisinsk rådgivning. Likevel kan de bli brukt på måter som fører til utilsiktede konsekvenser. «AI-verktøy må ha klare advarsler og begrensninger for å unngå misbruk,» sier en forsker ved Universitetet i Oslo.
Hva nå?
Saken kan få betydning for hvordan AI-selskaper reguleres i fremtiden. Familien krever erstatning for skadene, og søksmålet kan føre til strengere krav til testing og varsling av AI-systemer. OpenAI har tidligere vært involvert i lignende saker, men dette er første gang en overdose er direkte knyttet til råd fra en av deres modeller.
«Dette er en påminnelse om at AI-systemer må utvikles med stor forsiktighet. Sikkerhet må gå foran innovasjon,» uttaler en talskvinne for pasientorganisasjonen Pasient- og brukerombudet.
Tidligere lignende saker
- I 2023 saksøkte en mann Microsoft etter at Bing Chat ga råd som førte til økonomisk tap.
- En annen sak involverte Google, der en bruker hevdet at AI-råd førte til feildiagnostisering av en sykdom.
Hva betyr dette for AI-bransjen?
Søksmålet mot OpenAI kan bli en milepæl for hvordan AI-selskaper håndterer ansvar og sikkerhet. Reguleringsmyndigheter verden over følger saken nøye, og resultatet kan påvirke fremtidige lover og retningslinjer for AI-utvikling.