Un utilisateur du réseau social X a révélé qu’un nouvel outil d’intelligence artificielle de Canva, Magic Layers, modifiait automatiquement le mot "Palestine" en "Ukraine" dans les designs. Cette fonctionnalité, conçue pour transformer des images plates en éléments éditables, aurait dû rester neutre, mais elle a été prise en flagrant délit de censure involontaire.

L’utilisateur @ros_ie9 a partagé un exemple où la phrase "cats for Palestine" était automatiquement convertie en "cats for Ukraine". Aucun autre terme lié au conflit, comme "Gaza", n’a été affecté, suggérant que le problème était ciblé.

Canva a réagi rapidement après la publication du bug. Dans un communiqué, la société a confirmé avoir identifié l’anomalie et l’avoir corrigée. Elle a également annoncé des mesures pour éviter que cette erreur ne se reproduise.

« Nous avons pris connaissance d’un problème concernant notre fonctionnalité Magic Layers, qui entraînait des modifications non intentionnelles dans certains designs. Nous avons immédiatement corrigé l’erreur et renforcé nos contrôles pour garantir que cela ne se reproduise pas. »

Cette affaire rappelle les risques liés aux outils d’IA, dont les biais peuvent parfois altérer involontairement le contenu généré. Canva, largement utilisé pour la création graphique, n’avait jusqu’ici pas signalé de dysfonctionnement similaire.

Source : The Verge