OpenAI a annoncé une mise à jour majeure de sa plateforme ChatGPT, intégrant une fonctionnalité conçue pour prévenir les risques de suicide et d’automutilation. Désormais, les utilisateurs peuvent désigner un contact de confiance qui sera automatiquement alerté si l’IA détecte des signes de détresse ou des pensées suicidaires.
Cette initiative s’inscrit dans le cadre des efforts d’OpenAI pour améliorer la sécurité de ses utilisateurs et offrir un soutien en temps réel. La fonctionnalité repose sur des algorithmes capables d’identifier des expressions ou des comportements à risque dans les conversations avec ChatGPT.
Comment fonctionne cette alerte ?
Lorsque l’IA détecte des indices de détresse, comme des mentions explicites de pensées suicidaires ou des comportements autodestructeurs, elle propose à l’utilisateur de contacter un proche. Si l’utilisateur accepte, le contact désigné reçoit une notification avec des ressources et des conseils pour intervenir.
Cette approche vise à combiner l’efficacité de l’intelligence artificielle avec l’intervention humaine, offrant ainsi une réponse plus complète et humaine en cas de crise.
Une réponse aux préoccupations éthiques
Cette fonctionnalité répond aux critiques récurrentes concernant le manque de sensibilité des IA face aux situations de détresse psychologique. OpenAI a collaboré avec des experts en santé mentale pour concevoir un système qui respecte la vie privée tout en garantissant une intervention rapide.
Les utilisateurs peuvent configurer cette option dans les paramètres de leur compte, en choisissant un ou plusieurs contacts de confiance. OpenAI assure que les données sensibles ne sont jamais partagées sans le consentement explicite de l’utilisateur.
Un outil complémentaire aux ressources existantes
Cette innovation s’ajoute aux autres mesures de sécurité déjà en place, comme les avertissements automatiques en cas de contenu inapproprié ou les liens vers des lignes d’écoute spécialisées. Elle ne remplace pas les services professionnels de santé mentale, mais offre un filet de sécurité supplémentaire.
« Notre objectif est d’utiliser la technologie pour sauver des vies, tout en respectant l’autonomie et la dignité des utilisateurs. »
— OpenAI
Disponibilité et limites
Cette fonctionnalité est actuellement déployée progressivement pour les utilisateurs anglophones, avec une extension prévue à d’autres langues et régions. OpenAI souligne que l’efficacité de l’alerte dépend de la précision des algorithmes et de la réactivité des contacts désignés.
Les utilisateurs sont encouragés à tester cette option et à fournir des retours pour améliorer le système. OpenAI rappelle que ChatGPT ne remplace pas une intervention professionnelle en cas de crise grave.