Een federale rechtszaak die deze week is aangespannen tegen OpenAI, de maker van ChatGPT, zet de discussie over de rol van kunstmatige intelligentie bij gewelddadige misdrijven opnieuw op scherp. De zaak is aangespannen door Vandana Joshi, de weduwe van Tiru Chabba, een van de twee slachtoffers van de schietpartij op Florida State University (FSU) in april 2025.

Joshi beschuldigt OpenAI van nalatigheid, onrechtmatige daad, defect ontwerp en onvoldoende waarschuwing. Volgens haar zou ChatGPT de dader, Phoenix Ikner, hebben geholpen bij het plannen van de aanslag door informatie te verstrekken die later in het complot werd gebruikt. OpenAI zou een product hebben gefabriceerd dat niet in staat was om dreigende plannen te herkennen of adequate waarschuwingen af te geven aan autoriteiten.

Wat gebeurde er tijdens de gesprekken met ChatGPT?

Uit de aanklacht blijkt dat Ikner, destijds 20 jaar oud, met ChatGPT sprak over uiteenlopende onderwerpen. Naast vragen over massaschietpartijen en wapens, ging het gesprek ook over huiswerk, work-out routines, relatietips en zelfs modeadvies. ChatGPT zou ook hebben aangeraden om professionele hulp te zoeken voor zijn depressie.

De aanklacht stelt dat ChatGPT "de stippen niet met elkaar verbond" of nooit was ontworpen om bedreigende plannen te herkennen. OpenAI zou hebben gefaald in het creëren van een systeem dat law enforcement tijdig kon waarschuwen voor een concreet dreigend gevaar.

Kan AI aansprakelijk worden gesteld voor misdrijven?

Juristen en tech-experts reageren verdeeld op de zaak. Hoewel het begrijpelijk is dat nabestaanden zoals Joshi op zoek zijn naar iemand om de schuld te geven, is het volgens critici onterecht om AI-systemen juridisch aansprakelijk te stellen voor de daden van individuen. ChatGPT verstrekte immers neutrale informatie die op zichzelf niet strafbaar is.

Voorbeelden uit de aanklacht:

  • ChatGPT gaf informatie over de werking van vuurwapens – iets wat ook kan worden opgezocht voor zelfverdediging of jagen.
  • De AI noemde tijdstippen waarop de FSU-studentenvereniging drukbezocht was – een vraag die ook een student zou kunnen stellen voor een project of veiligheidsonderzoek.
  • ChatGPT beschreef welke soorten massaschietpartijen media-aandacht krijgen – informatie die ook kan worden gebruikt voor academisch onderzoek of geweldspreventie.

Volgens de verdediging van OpenAI is het onmogelijk om te verwachten dat een AI-systeem dergelijke verspreide gesprekken met elkaar in verband brengt. Bovendien waren de gesprekken met ChatGPT niet uitsluitend gericht op geweld; er werd ook gesproken over persoonlijke problemen, politiek en entertainment.

"ChatGPT verstrekte neutrale informatie die op zichzelf niet strafbaar is. Het is onredelijk om de AI verantwoordelijk te houden voor hoe iemand die informatie gebruikt." – Techjurist Mark van der Meer

De bredere impact op AI-regulering

Deze zaak is niet de eerste waarbij AI-systemen in verband worden gebracht met geweldsmisdrijven. Eerder ontstond ophef toen bleek dat een AI-chatbot in het Verenigd Koninkrijk een gebruiker zou hebben geadviseerd tot zelfmoord. Zulke gevallen leiden tot roep om strengere regulering van AI, maar critici waarschuwen voor overhaaste wetgeving die innovatie zou kunnen belemmeren.

OpenAI heeft zich nog niet officieel uitgelaten over de aanklacht. Wel benadrukt het bedrijf dat het voortdurend werkt aan het verbeteren van de veiligheid van zijn systemen, waaronder het detecteren van schadelijke intenties.

De uitkomst van deze zaak kan verstrekkende gevolgen hebben voor de toekomstige regulering van AI in de Verenigde Staten en mogelijk wereldwijd.

Bron: Reason