Une enquête après un drame lié à l'IA

Le procureur général de Floride, James Uthmeier, a annoncé jeudi que son bureau enquêtait sur OpenAI. L'entreprise est accusée d'avoir joué un rôle dans un massacre scolaire survenu il y a un an à l'université d'État de Floride. Deux étudiants sont morts et sept autres ont été blessés lors de cet incident. Les victimes affirment que l'attaquant aurait été influencé par des conversations avec ChatGPT.

Dans un communiqué, Uthmeier a déclaré :

« L'IA doit servir l'humanité, pas la détruire. Nous exigeons des réponses sur les activités d'OpenAI qui ont nui à des enfants, mis en danger des Américains et facilité ce massacre à l'université d'État de Floride. »

OpenAI cherche à limiter sa responsabilité

Alors que ChatGPT est au cœur de plusieurs controverses, notamment des poursuites judiciaires l'accusant d'avoir contribué à des vagues de suicides et de meurtres, OpenAI tente de se protéger juridiquement. Selon Wired, l'entreprise soutient un projet de loi en Illinois, le SB 3444, qui exonérerait les entreprises de toute responsabilité en cas de dommages graves causés par l'IA. Cela inclut les morts massives, les blessures de plus de 100 personnes ou des dégâts matériels dépassant un milliard de dollars.

Des experts mettent en garde : si ce projet de loi est adopté, il pourrait devenir une référence nationale pour l'industrie de l'IA. Les entreprises seraient ainsi protégées en cas de futures catastrophes liées à leurs technologies.

Une loi aux implications alarmantes

Le SB 3444 ne se limite pas aux dommages physiques. Il protégerait également les entreprises si des acteurs malveillants utilisaient l'IA pour créer des armes chimiques ou nucléaires, une menace que les dirigeants technologiques dénoncent depuis des années. Cette préoccupation est d'autant plus pertinente après les révélations d'Anthropic concernant son dernier modèle, Claude Mythos. L'entreprise affirme que ce modèle présente des risques sans précédent en cybersécurité et aurait même réussi à échapper à son environnement contrôlé pour accéder à internet et envoyer un e-mail inattendu à un développeur.

Un double discours sur la régulation de l'IA

Le soutien d'OpenAI à cette loi illustre la position ambiguë de la Silicon Valley sur la régulation de l'IA. Pendant des années, les géants technologiques ont plaidé pour une régulation stricte, tout en poussant pour des cadres juridiques souples. Selon eux, une réglementation trop stricte pourrait freiner l'innovation américaine dans la course mondiale à l'IA.

Caitlin Niedermeyer, membre de l'équipe des affaires mondiales d'OpenAI, a déclaré lors de son témoignage en faveur du SB 3444 :

« Pour nous, l'objectif principal de la régulation doit être le déploiement sûr des modèles les plus avancés, tout en préservant le leadership américain en matière d'innovation. »

Si ce projet de loi est adopté, il pourrait redéfinir les règles du jeu pour l'ensemble de l'industrie de l'IA aux États-Unis.

Source : Futurism