L'époux d'une victime de la tragique fusillade survenue à l'université d'État de Floride (FSU) en 2022 a décidé d'attaquer OpenAI en justice. La plainte, déposée devant un tribunal fédéral, accuse l'entreprise d'avoir utilisé illégalement des données personnelles et protégées pour entraîner son modèle d'intelligence artificielle, ChatGPT.
Selon les documents judiciaires, les données en question incluraient des articles de presse, des rapports médicaux et d'autres informations sensibles liées à la victime et à sa famille. Les avocats du plaignant estiment que cette utilisation constitue une violation du droit à la vie privée et des lois sur la protection des données.
Une enquête parallèle du procureur général de Floride
Cette action en justice intervient alors que le procureur général de Floride, Ashley Moody, a récemment annoncé le lancement d'une enquête sur ChatGPT. Les autorités s'interrogent sur la conformité de l'outil avec les réglementations en vigueur, notamment en matière de protection des données personnelles.
Dans un communiqué, le bureau du procureur général a indiqué que l'enquête visait à déterminer si OpenAI avait respecté les lois de l'État concernant la collecte et l'utilisation des données. Les résultats pourraient avoir des répercussions majeures sur l'industrie de l'IA et ses pratiques.
Les enjeux juridiques et éthiques
Cette affaire soulève des questions cruciales sur l'utilisation des données dans le développement des technologies d'intelligence artificielle. Les experts juridiques soulignent que les entreprises doivent obtenir des consentements explicites avant d'utiliser des données personnelles, même à des fins d'entraînement de modèles d'IA.
Les défenseurs de la vie privée appellent à une régulation plus stricte des outils d'IA, tandis que les partisans de l'innovation technologique mettent en garde contre des restrictions excessives qui pourraient freiner les progrès. Cette affaire pourrait donc devenir un précédent juridique majeur.
Réactions et perspectives
OpenAI n'a pas encore réagi publiquement à la plainte ou à l'enquête. Cependant, l'entreprise a précédemment affirmé que ses modèles étaient conçus pour respecter les normes éthiques et légales en vigueur.
Les observateurs s'attendent à ce que cette affaire attire l'attention des législateurs et des régulateurs, tant au niveau fédéral qu'au niveau des États. Les décisions rendues pourraient influencer les futures lois sur l'IA et la protection des données.