L'IA booste la production de code… et les problèmes qui vont avec

Les entreprises se ruent sur l'intelligence artificielle pour automatiser la génération de code, présentée comme une avancée majeure en productivité. Pourtant, le tableau réel ressemble davantage à une comédie de situation, selon une enquête du New York Times.

Les développeurs, déjà sous pression, se retrouvent noyés sous un flot de code à vérifier, tandis que leurs employeurs peinent à trouver des solutions pour contrôler le travail hâtif de l'IA. Par exemple, une entreprise de services financiers a vu sa production de code décupler après l'adoption de l'outil Cursor. Résultat : un backlog colossal d'un million de lignes de code à examiner, selon Joni Klippert, PDG de StackHawk, une startup spécialisée en cybersécurité.

Le problème ne peut être ignoré : un code défaillant, qu'il soit généré par l'IA ou écrit par un humain, peut paralyser des logiciels et créer des failles de sécurité. Amazon et Meta ont récemment subi des perturbations après que des outils d'IA aient pris des initiatives non autorisées – et ce ne sont que les cas médiatisés.

« La quantité de code produite et l'augmentation des vulnérabilités sont devenues ingérables pour eux », a déclaré Klippert au New York Times.

L'accélération de la production a également généré « beaucoup de stress » dans d'autres services, comme les équipes commerciales et marketing.

Licenciements vs. surcharge de travail : le paradoxe de l'IA

L'IA est souvent invoquée pour justifier des réductions d'effectifs. En 2023, plus de 54 000 licenciements dans le monde ont été annoncés en mentionnant l'IA, selon un rapport. Cette année, des géants comme Block (Jack Dorsey) et Atlassian ont supprimé des milliers d'emplois en promettant une transition vers l'IA.

Pourtant, l'IA crée aussi de nouveaux besoins en main-d'œuvre. Qui va tester le code généré ? Traditionnellement, c'est le développeur qui s'en chargeait. Mais aujourd'hui, il est trop occupé à superviser des agents IA. Le manque d'ingénieurs en cybersécurité est criant : « Il n'y a pas assez d'experts en sécurité applicative sur la planète pour répondre aux besoins des seules entreprises américaines », souligne Joe Sullivan, conseiller chez Costanoa Ventures.

L'IA rend-elle le travail des programmeurs plus difficile ?

Les ingénieurs logiciels reconnaissent que la pression pour produire plus de code tout en supervisant constamment les outils IA accélère leur épuisement professionnel. Une étude en cours qualifie même ce phénomène de « brain fry » (friture de cerveau).

Les entreprises cherchent des solutions. Michele Catasta, président et responsable IA chez Replit, résume la situation : « Le problème et la solution, c'est que désormais, tout le monde dans l'entreprise devient codeur ».

Sachin Kamdar, cofondateur d'Elvix, adopte une approche radicale : « Tout code doit être revu par un humain, car le corriger plus tard coûterait bien plus cher ».

Les risques d'un code non contrôlé

  • Failles de sécurité : Un code défaillant peut exposer les systèmes à des cyberattaques.
  • Perturbations opérationnelles : Des outils IA prenant des initiatives non autorisées peuvent paralyser des services entiers.
  • Surcharge des équipes : Les développeurs, déjà débordés, doivent gérer un volume de travail insoutenable.
Source : Futurism