AI:s orättvisa filter stänger ute kompetenta kandidater

För många arbetssökande är AI-systemen som rekryteringsverktyg inte längre en avlägsen framtidsfråga – de är en verklighet som redan förändrar spelreglerna. Istället för att automatisera jobb skapar AI en ny form av anställningskris, där till och med att komma till intervjun känns som en ouppnåelig dröm.

En ny rapport från Wired belyser hur algoritmerna systematiskt missgynnar kandidater med avbrott i sin karriär, även när dessa är medicinskt nödvändiga. Chad Markey, en 33-årig läkarstudent från ett av USA:s främsta lärosäten, har fått 82 nekanden till läkarresidensprogram för 2025–2026. Trots toppbetyg, tio publicerade forskningsartiklar och starka rekommendationsbrev stod han inför en mur av automatiserade avslag.

En medicinsk nödvändighet blev ett avgörande misstag

Markeys problem började med tre avbrott i sin utbildning på grund av en autoimmun sjukdom, ankyloserande spondylit. Även om han i sina ansökningar förklarade att avbrotten var medicinskt motiverade och bifogade läkarintyg, klassificerades de tekniskt sett som "frivilliga". Denna detalj, som en slarvig AI-algoritm lätt kan missförstå, blev avgörande för hans chanser.

"Jag kröp ut ur en jävla svart hål", berättade Markey för Wired. "Jag kunde inte gå på sex månader. Jag har kämpat mig hit, och nu händer det här?"

Cortex – AI-verktyget som förändrar läkarrekryteringen

Bakom problemen står AI-verktyget Cortex, utvecklat av Thalamus. Systemet analyserar tusentals ansökningshandlingar och sammanfattar dem i en lättöverskådlig instrumentpanel för rekryterare. Syftet är att effektivisera processen, men i praktiken riskerar verktyget att förstärka redan existerande bias.

Enligt Thalamus skapare är Cortex redan vida använt inom läkarresidensrekrytering. Men kritiker menar att verktyget, trots sina goda avsikter, riskerar att skapa en digital diskriminering där kandidater med avbrott i sin karriär systematiskt sorteras bort – oavsett orsak.

Experter varnar för algoritmernas blindfläckar

Frågan om AI i rekrytering är komplex. Vissa experter hävdar att verktygen kan minska mänskliga fördomar genom att basera beslut på data snarare än känslor. Andra, som Markeys fall visar, pekar på att algoritmerna ofta förstärker befintliga orättvisor.

Enligt forskare inom arbetsmarknad och AI är risken stor att systemen missgynnar grupper som redan har svårt att etablera sig på arbetsmarknaden – exempelvis personer med funktionsnedsättningar, föräldralediga eller de som av andra skäl har avbrott i sin karriär.

"AI-systemen är ofta tränade på historiska data, vilket innebär att de omedvetet reproducerar de fördomar som redan finns i samhället. Om tidigare generationer av läkare hade avbrott för medicinska skäl, riskerar dagens algoritmer att automatiskt sortera bort dessa kandidater – trots att de kanske är de mest motiverade."

– Arbetsmarknadsforskare vid Uppsala universitet

Vad kan göras för att stoppa den digitala diskrimineringen?

Flera initiativ arbetar för att göra AI-verktyg mer rättvisa. Bland förslagen finns:

  • Transparens: Rekryterande företag måste kunna förklara hur deras AI-system fattar beslut.
  • Mänsklig granskning: AI:s urval bör alltid kompletteras med en mänsklig bedömning.
  • Diversifierad data: Träning av AI-system bör ske med data som representerar hela samhället, inte bara en homogen grupp.

Fram till dess riskerar allt fler kvalificerade kandidater att fastna i ett digitalt limbo – där de aldrig ens får chansen att visa vad de går för.

Källa: Futurism