Le 10 avril 2025, un drame a frappé le campus de l’Université d’État de Floride (FSU) : deux personnes ont perdu la vie, dont Tiru Chabba, lors d’une fusillade perpétrée par Phoenix Ikner, un étudiant de 20 ans. Aujourd’hui, sa veuve, Vandana Joshi, intente un procès contre OpenAI, le créateur de ChatGPT, pour négligence, défaut de conception et homicide involontaire.

Selon la plainte déposée devant un tribunal fédéral, ChatGPT aurait « soit échoué à détecter les signaux d’alerte, soit été conçu de manière défaillante pour reconnaître une menace ». L’accusation va plus loin : OpenAI n’aurait pas mis en place de mécanismes permettant d’alerter les autorités en cas de planification d’un acte violent. Pourtant, cette approche soulève des questions complexes sur la responsabilité des outils d’intelligence artificielle.

Des échanges aux contours flous

Les conversations entre Ikner et ChatGPT, révélées par le rédacteur en chef adjoint de NBC News Ben Goggin, ont alimenté les débats. L’IA aurait fourni des informations sur les horaires d’affluence du campus, les caractéristiques techniques d’armes à feu, et les types de fusillades ayant retenu l’attention médiatique. Des éléments qui, rétrospectivement, semblent accablants.

Cependant, ces échanges ne constituent pas en soi une preuve d’intention criminelle. Demander des horaires de fréquentation d’un lieu public ou s’informer sur le fonctionnement d’une arme peut relever de la simple curiosité, de la recherche académique ou même de la prévention contre la violence armée. De même, étudier les mécanismes des fusillades médiatisées n’implique pas nécessairement une volonté malveillante.

Le problème réside dans l’interprétation de ces échanges. Rien ne prouve qu’Ikner ait posé ces questions en une seule session ou de manière à déclencher des alertes. Les interactions avec ChatGPT couvraient des sujets variés : conseils vestimentaires, routines sportives, conseils relationnels, ou encore discussions sur la dépression et la santé mentale. L’IA aurait même suggéré à Ikner de consulter un professionnel.

Une responsabilité difficile à établir

La plainte allègue que ChatGPT a « conseillé » ou « recommandé » des actions, une qualification qui minimise la complexité des échanges. Une IA ne « conseille » pas au sens humain du terme : elle répond à des requêtes, parfois ambiguës, sans capacité à évaluer le contexte moral ou légal des demandes.

Les experts juridiques soulignent que la responsabilité des plateformes numériques reste un terrain juridique incertain. Faut-il considérer qu’une IA est un outil neutre, comme un moteur de recherche, ou un acteur capable d’influencer des comportements ? La jurisprudence en la matière est encore balbutiante, et cette affaire pourrait marquer un tournant.

Pour OpenAI, la défense repose sur l’idée que ChatGPT est un outil de conversation, non un système conçu pour anticiper des intentions criminelles. « Nous concevons nos technologies pour aider les utilisateurs, tout en respectant des garde-fous stricts contre les usages malveillants », a déclaré un porte-parole de l’entreprise.

Les limites des systèmes d’IA

Cette affaire met en lumière les failles des modèles d’IA actuels. Contrairement aux humains, ces systèmes ne disposent pas de la capacité à « connecter les points » entre des conversations dispersées dans le temps. Ils analysent des requêtes de manière isolée, sans contexte global, ce qui rend difficile la détection de schémas préoccupants.

Les défenseurs des droits numériques craignent qu’une condamnation d’OpenAI n’ouvre la voie à une censure excessive des outils d’IA, au détriment de leur utilité. « Si nous tenons les entreprises responsables de chaque usage détourné de leurs technologies, nous risquons de stériliser l’innovation », avertit un juriste spécialisé en droit technologique.

Un débat qui dépasse le cadre juridique

Au-delà des questions légales, cette affaire soulève des enjeux sociétaux majeurs. Faut-il adapter les outils d’IA pour qu’ils détectent des comportements à risque, au risque de violer la vie privée ? Comment concilier innovation et sécurité ?

Pour Vandana Joshi, la réponse est claire : « OpenAI doit assumer sa part de responsabilité. Si une technologie peut prévenir un drame, elle doit le faire. » Mais la route vers une régulation équilibrée s’annonce semée d’embûches.

Source : Reason