L’intelligence artificielle (IA) s’impose comme une menace grandissante pour les travailleurs du monde entier. Certains experts la comparent à un astéroïde lointain, dont la trajectoire incertaine pourrait bouleverser l’économie. D’autres y voient une opportunité, mais pour des millions de personnes déjà en difficulté, l’IA aggrave une réalité bien plus immédiate : l’accès au marché du travail devient un parcours du combattant.

Ce n’est pas une question d’automatisation massive des emplois, mais bien d’une « déshumanisation » des processus de recrutement. Des algorithmes, censés rationaliser les embauches, enferment désormais des candidats qualifiés dans une impasse : celle de ne jamais obtenir d’entretien, et donc de chance, malgré des profils irréprochables.

Un cas emblématique : Chad Markey, diplômé d’une faculté de médecine d’élite

Prenons l’exemple de Chad Markey, 33 ans, en passe d’obtenir son diplôme à l’Université de médecine de Harvard. Ce jeune homme, doté de solides atouts – 10 publications scientifiques, des lettres de recommandation élogieuses et un parcours académique impeccable –, a été rejeté par 82 programmes de résidence pour la saison 2025-2026.

Pourtant, son dossier ne présentait aucune faille majeure. Sauf une : trois périodes d’absence pour raisons médicales, liées à une spondylarthrite ankylosante, une maladie auto-immune invalidante. Bien que ces absences aient été justifiées par des certificats médicaux, elles étaient techniquement classées comme « volontaires » dans son dossier. Une nuance que les algorithmes de recrutement, comme Cortex, pourraient interpréter à tort comme un manque d’engagement.

« Je suis sorti d’un putain de trou noir. Je ne pouvais plus marcher pendant six mois. J’ai tout donné, et c’est comme ça que ça se termine ? »
— Chad Markey, diplômé en médecine

Comment l’IA Cortex transforme les candidatures en données

L’outil Cortex, développé par la société Thalamus, est devenu un acteur clé dans le recrutement des résidences médicales. Ce logiciel analyse des centaines de candidatures en quelques secondes, générant des tableaux de bord simplifiés pour les recruteurs. L’objectif ? Gagner du temps et objectiver les choix. Mais dans les faits, il reproduit et amplifie les biais humains.

Les algorithmes, formés sur des données historiques, reproduisent souvent les mêmes schémas discriminatoires. Un candidat avec des antécédents médicaux, même justifiés, peut être automatiquement écarté. Pire encore : ces systèmes opaques ne permettent pas aux candidats de comprendre pourquoi leur dossier a été rejeté, ni de contester la décision.

Une tendance qui dépasse le secteur médical

Le problème n’est pas isolé. Dans de nombreux secteurs, les logiciels de recrutement, comme HireVue ou Pymetrics, utilisent l’IA pour trier les CV et mener des entretiens vidéo automatisés. Ces outils analysent des critères comme le ton de la voix, les expressions faciales ou même la durée des réponses, sans garantie de neutralité.

Les conséquences sont dramatiques : des profils expérimentés, issus de milieux diversifiés, se retrouvent exclus avant même d’avoir pu défendre leur candidature. Selon une étude de Harvard Business School, plus de 50 % des candidats qualifiés sont écartés par ces systèmes, souvent pour des raisons obscures.

Que faire face à ce fléau ?

  • Exiger la transparence : Les entreprises doivent rendre publics les critères utilisés par leurs algorithmes de recrutement.
  • Former les recruteurs : Les humains doivent reprendre le contrôle des processus de sélection pour éviter les biais algorithmiques.
  • Lutter contre les discriminations : Les candidats doivent pouvoir contester les décisions automatisées et exiger des explications.

L’IA n’est pas une fatalité. Mais sans régulation stricte et sans vigilance accrue, elle risque de creuser les inégalités et de priver des milliers de talents d’opportunités professionnelles.

Source : Futurism