Искусственный интеллект всё чаще становится непреодолимым барьером для соискателей, даже самых квалифицированных. Вместо того чтобы упрощать процесс найма, алгоритмы превращают его в лотерею, где шансы на успех зависят не от профессионализма, а от работы программного обеспечения.
Эксперты предупреждают: ИИ не только угрожает будущему рынку труда, но уже сегодня создаёт ситуацию, когда кандидаты с выдающимися резюме остаются без приглашения на собеседование по «необъяснимым» причинам. При этом сама система отбора становится всё менее прозрачной, а последствия ошибок алгоритмов — всё более разрушительными.
Как ИИ превращает поиск работы в испытание
Для многих соискателей, особенно в США, ИИ стал чем-то вроде далёкого астероида — угрозой, которая может изменить жизнь, но о которой мало кто знает наверняка. Одни уверены, что он уничтожит рабочие места, другие надеются, что обойдёт стороной. Однако для тех, кто уже столкнулся с системой отбора на основе алгоритмов, реальность куда суровее: ИИ не просто угроза, а действующий механизм, который уже сегодня закрывает двери перед квалифицированными кандидатами.
Ситуация особенно сложна для тех, кто пытается вернуться на рынок труда после перерыва. Алгоритмы, оценивающие резюме, не учитывают индивидуальные обстоятельства, такие как медицинские паузы или семейные обязанности, и это приводит к тому, что даже идеальные кандидаты остаются без шанса.
Пример из практики: как алгоритм разрушил карьеру перспективного врача
История Чеда Марки, 33-летнего выпускника медицинской школы Лиги плюща, стала ярким примером того, как ИИ может разрушить карьерные перспективы. После подачи заявок на 82 программы ординатуры на 2025–2026 годы Марки получил неожиданный результат: большинство из них были отклонены без объяснения причин.
Несмотря на отличные оценки, 10 опубликованных научных работ и восторженные рекомендации профессоров, его заявки не прошли отбор. Причина крылась в трёх «добровольных» отпусках по медицинским показаниям, связанных с обострением анкилозирующего спондилита — аутоиммунного заболевания. Хотя Марки подробно объяснил обстоятельства в сопроводительном письме, алгоритм классифицировал эти паузы как «добровольные» и автоматически снизил его шансы.
«Я буквально выкарабкался из чёрной дыры. Шесть месяцев я не мог ходить. Я прошёл такой долгий путь, и вот что происходит?» — заявил Марки в интервью Wired.
В то время как Марки боролся за место в ординатуре, система отбора на основе ИИ стремительно набирала популярность в медицинских учреждениях. Инструмент Cortex, разработанный компанией Thalamus, обещал упростить процесс оценки сотен заявок, предоставляя hiring-менеджерам удобные дашборды с ключевыми данными. Однако на практике он стал ещё одним фильтром, который отсеивает кандидатов по формальным признакам, не учитывая их реальные достижения и обстоятельства.
Почему система ломается: ошибки алгоритмов и отсутствие прозрачности
Проблема не в самих инструментах, а в их применении. Многие системы ИИ для найма не обучены распознавать контекст: они видят «пробелы» в резюме и автоматически снижают рейтинг кандидата, не учитывая, что эти паузы могли быть вызваны объективными причинами — болезнью, уходом за детьми или другими обстоятельствами.
Кроме того, большинство таких систем не предоставляют кандидатам возможности оспорить решение. Даже если алгоритм допустил ошибку, исправить её практически невозможно, так как компании редко раскрывают критерии отбора или дают обратную связь.
Эксперты отмечают, что отсутствие регулирования в этой сфере приводит к тому, что компании внедряют ИИ-инструменты без должной проверки их справедливости и точности. В результате рынок труда становится всё более несправедливым, а шансы на трудоустройство зависят не от профессионализма, а от алгоритмической удачи.
Что делать кандидатам и работодателям?
- Для соискателей: тщательно проверять резюме на наличие формальных ошибок, которые могут быть неправильно интерпретированы алгоритмами. Также стоит искать компании, которые предоставляют прозрачные критерии отбора и возможность обратной связи.
- Для работодателей: проводить аудит используемых ИИ-инструментов на предмет дискриминации и несправедливых практик. Важно внедрять системы, которые учитывают контекст и предоставляют кандидатам возможность оспорить решение.
- Для регуляторов: разработать стандарты прозрачности и подотчётности для ИИ-инструментов в сфере найма, чтобы предотвратить дискриминацию и несправедливые практики.