Sztuczna inteligencja w rekrutacji stała się dla wielu pracowników czymś w rodzaju odległej asteroidy – nie wiadomo, kiedy uderzy, ani jakie szkody spowoduje. Eksperci nie są zgodni co do jej wpływu na rynek pracy, ale samo jej istnienie wywołuje niepokój. Dla osób już zatrudnionych to zagrożenie, które może zmienić ich życie. Dla bezrobotnych – kolejna przeszkoda na drodze do powrotu na rynek pracy.

AI nie tylko automatyzuje procesy, ale także utrudnia dostęp do zatrudnienia, tworząc sytuację określaną mianem „enshittification” – terminem opisującym pogarszanie się warunków dla pracowników. Dla wielu kandydatów nawet samo zdobycie zaproszenia na rozmowę kwalifikacyjną staje się niemal nieosiągalnym celem.

Przypadek Chada Markeya: jak AI odrzuciło wykwalifikowanego lekarza

Przykładem tego problemu jest historia Chada Markeya, 33-letniego absolwenta prestiżowej szkoły medycznej. Według artykułu opublikowanego przez Wired, Markey aplikował do 82 programów rezydencji na rok 2025–2026, ale otrzymywał same odmowy. Mimo doskonałych ocen, dziesięciu opublikowanych prac naukowych i rekomendacji od profesorów, jego szanse zostały zniweczone przez systemy AI.

Problem tkwił w trzech przerwach w jego edukacji, spowodowanych zaostrzeniem się choroby autoimmunologicznej – zesztywniającego zapalenia stawów kręgosłupa. Choć przerwy były medycznie uzasadnione, w dokumentach zostały zaklasyfikowane jako „dobrowolne”. To drobny szczegół, który w oczach niedopracowanego systemu AI mógł przesądzić o odrzuceniu jego aplikacji.

„Wydostałem się z cholernego czarnego dołu” – powiedział Markey w rozmowie z Wired. „Przez sześć miesięcy nie mogłem chodzić. Doszedłem tak daleko, a teraz to się dzieje?”

Cortex i inni: jak AI rewolucjonizuje rekrutację w medycynie

Podczas gdy Markey walczył o szansę, system AI o nazwie Cortex zyskiwał popularność wśród szpitali. Narzędzie to przetwarza dokumenty aplikacyjne kandydatów i przedstawia je w czytelnej formie, umożliwiając szybką analizę setek zgłoszeń z różnych programów medycznych. Według twórców, Cortex ma ułatwiać proces rekrutacji, jednak w praktyce prowadzi do sytuacji, w której ludzie tracą szanse z powodu błędów algorytmicznych.

Twórcy Cortex, firma Thalamus, twierdzą, że ich narzędzie pomaga hiring managerom w podejmowaniu bardziej obiektywnych decyzji. Jednak przypadki takie jak Markeya pokazują, że systemy AI nie są wolne od uprzedzeń i błędów, które mogą mieć poważne konsekwencje dla życiowych planów kandydatów.

Problem nie ogranicza się tylko do sektora medycznego. Coraz więcej branż korzysta z narzędzi opartych na sztucznej inteligencji do wstępnej selekcji kandydatów, co prowadzi do sytuacji, w której ludzie z nietypowymi ścieżkami kariery, niepełnosprawnościami lub innymi „nietypowymi” cechami są automatycznie dyskwalifikowani.

Czy AI może być sprawiedliwym narzędziem rekrutacyjnym?

Eksperci podkreślają, że kluczem do sprawiedliwego wykorzystania AI w rekrutacji jest przezroczystość i odpowiedzialność. Systemy muszą być regularnie testowane pod kątem uprzedzeń, a decyzje podejmowane przez AI powinny być możliwe do zakwestionowania przez ludzi. Bez takich mechanizmów, sztuczna inteligencja może stać się kolejnym narzędziem dyskryminacji, zamiast ułatwieniem w procesie rekrutacji.

Dla osób takich jak Chad Markey walczących o szansę na zatrudnienie, to nie tylko kwestia technologii, ale także sprawiedliwości. AI powinno służyć ludziom, a nie ich wykluczać.

Źródło: Futurism