Depuis l'arrivée de ChatGPT en 2022, l'intelligence artificielle a révolutionné de nombreux secteurs, mais son impact le plus tangible se situe probablement dans le domaine du développement logiciel. Les programmeurs, qu'ils soient expérimentés ou novices, utilisent désormais des chatbots et des outils spécialisés pour générer du code à partir de requêtes en langage naturel. Cette pratique, appelée vibe coding, permet à presque tout le monde de créer des applications en un temps record, même sans compétences techniques approfondies.

Si cette évolution semble prometteuse, elle n'est pas sans risques. Une récente enquête menée par le cabinet de cybersécurité RedAccess met en lumière des failles de sécurité critiques dans les applications développées via cette méthode. Selon les résultats, 5 000 applications web analysées présentaient « virtuellement aucune sécurité ou authentification », et 40 % d'entre elles exposaient des données sensibles : informations médicales, financières, documents d'entreprise ou encore historiques de conversations privées avec des chatbots.

« Le résultat final est que des organisations diffusent involontairement des données privées via des applications créées par vibe coding », a déclaré Dor Zvi, cofondateur de RedAccess, au magazine Wired. « C'est l'un des plus grands incidents où des informations sensibles, qu'elles soient professionnelles ou personnelles, sont accessibles à quiconque dans le monde. »

Des plateformes en cause, des utilisateurs responsables

Face à ces révélations, les réactions des plateformes de vibe coding ont été mitigées. Netlify n'a pas répondu aux sollicitations, tandis que les autres, comme Lovable, ont rejeté la responsabilité sur les utilisateurs. « Nous traitons cela comme une question en cours », a déclaré un porte-parole de Lovable. « Il est important de noter que Lovable fournit des outils pour construire de manière sécurisée, mais la configuration finale de l'application relève de la responsabilité du créateur. »

Pourtant, ces entreprises promeuvent le vibe coding comme une solution simple pour créer des logiciels, en affirmant qu'il suffit de décrire une idée à une IA pour obtenir un code fonctionnel. Or, l'IA reste imparfaite : les erreurs de code, souvent subtiles, nécessitent l'expertise d'un développeur ou d'un expert en sécurité pour être détectées. En automatisant le processus, ces plateformes risquent de marginaliser ces professionnels, tout en mettant en danger les données des utilisateurs.

« N'importe quel employé de votre entreprise peut générer une application à tout moment, sans passer par un cycle de développement ni une vérification de sécurité », a expliqué Zvi. « Les gens l'utilisent directement en production sans consulter personne. Et c'est exactement ce qui se passe. »

Un phénomène aux conséquences inquiétantes

Cette étude s'ajoute à d'autres alertes concernant les dangers du vibe coding. Récemment, un système d'exploitation entièrement généré par IA a été critiqué pour ses bugs critiques et son manque de fiabilité. Ces exemples illustrent les limites de l'automatisation dans le développement logiciel, où la rapidité ne doit pas primer sur la sécurité.

Alors que l'IA continue de transformer les méthodes de travail, les entreprises et les utilisateurs doivent rester vigilants face aux risques liés à une adoption trop rapide et non encadrée de ces technologies.

Source : Futurism