Рекрутеры неосознанно дискриминируют женщин и представителей нацменьшинств

Решить проблему можно с помощью искусственного интеллекта

Фото: iStock

Инструмент на основе технологии искусственного интеллекта (ИИ) помог выявить, что резюме женщин и представителей этнических меньшинств, размещенные на сайтах по поиску работы, рассматриваются рекрутерами реже по сравнению с резюме специалистов из доминирующих групп. Алгоритм создали исследователи из Лондонской школы экономики и политических наук (London School of Economics and Political Science) и Швейцарского экономического института (KOF Swiss Economic Institute). Они надеются, что их разработка поможет защитить уязвимые группы людей от возможной дискриминации.

Исследование, опубликованное в научном журнале Nature, проводилось с 6 марта по 31 декабря 2017 года. В его основу легли данные о более чем 43 тыс. рекрутерах, отправивших более 452 тыс. поисковых запросов на онлайн-платформе для поиска работы Job-Room, которая принадлежит Государственному секретариату Швейцарии по экономическим вопросам (Swiss State Secretariat for Economic Affairs). В ответ на запросы HR-специалисты получили 17,4 млн профилей, из которых просмотрели 3,4 млн. Ученые подсчитали, сколько времени у рекрутеров уходило на изучение каждого резюме. Также они узнали, с какими кандидатами в итоге связывались, — на это указывало нажатие на кнопку «Контактная информация». Чтобы выявить взаимосвязь между предпочтениями рекрутеров и характеристиками соискателей, они использовали статистический метод наименьших квадратов.

Оказалось, что специалисты по найму персонала связывались с мигрантами (исключением стали жители Южной Европы) и представителями этнических меньшинств на 4–19% реже, чем со швейцарскими гражданами. Меньше всего они контактировали с жителями Азии, Африки и Ближнего Востока. При этом гражданская и этническая принадлежность влияли на выбор рекрутеров в большей степени, чем опыт работы, отмечают исследователи. С дискриминацией сталкивались и женщины. Ученые обнаружили, что на резюме женщин реже обращают внимание при поиске кандидатов на должности, которые обычно занимают мужчины. И наоборот, профили мужчин чаще рассматривают на работу в тех сферах, где преобладают женщины.

Выяснилось, что действия рекрутеров зависят от времени суток. Так, с 9 до 10 часов утра они просматривают профиль в среднем в течение 10,5 секунды, а после 11 часов — в течение 9,5 секунды. После обеда время, затрачиваемое на просмотр, увеличивается до 10,8 секунды, а ближе к концу рабочего дня снова сокращается до 9,5 секунды. При этом дискриминация по отношению к мигрантам и представителям этнических меньшинств усиливается в те периоды, когда на просмотр резюме тратится меньше времени. По словам исследователей, это говорит о том, что, будучи уставшими, рекрутеры руководствуются предубеждениями и склонны выбирать определенных кандидатов. «Неосознанные предубеждения, например стереотипы о меньшинствах, оказывают на рекрутеров больше влияния, когда они устали и прибегают к „интуитивному принятию решений“», — сказал один из авторов исследования Доминик Хангартнер.

Фото: iStock

Ученые предполагают, что предвзятость специалистов по подбору можно снизить, если внести изменения в работу поисковых платформ, — например, сделать так, чтобы в резюме не требовалось указывать имя и национальность. Они уверены, что разработанный ими инструмент поможет отслеживать и предотвращать возможные случаи дискриминации.

В последнее время на рынке появляется все больше «умных» инструментов для управления человеческими ресурсами. Так, канадская компания Ideal разработала алгоритм, который самостоятельно просматривает резюме и помогает подбирать наиболее подходящих соискателей. А американская компания Filtered предлагает платформу, с помощью которой рекрутеры могут в автоматическом режиме оценивать опыт и навыки будущих сотрудников.

Однако важно понимать, что и сами алгоритмы могут стать причиной дискриминации. Так, в 2019 году сотрудники Колорадского университета в Боулдере обнаружили, что алгоритмы, которые используются в коммерческих системах для распознавания лиц, включая Amazon Rekognition, Google Cloud Vision и IBM Watson Visual Recognition, чаще всего ошибаются при идентификации трансгендерных и небинарных людей. По словам ученых, это связано с предвзятостью разработчиков, которые обычно обучают алгоритмы на стандартных базах данных. В результате ИИ воспринимает длинные волосы как исключительно женский признак, а волосы на лице как мужской.

Ранее американскую технологическую компанию Amazon — одного из крупнейших работодателей в США — обвинили в том, что ее алгоритм для найма сотрудников дискриминировал женщин. В 2014 году команда разработчиков из Шотландии создала инструмент для отбора кандидатов в открытых базах. При поиске алгоритм ориентировался на 50 тыс. ключевых слов из резюме, полученных компанией за 10 лет. Однако год спустя разработчики обнаружили, что ИИ делал выбор преимущественно в пользу мужчин — именно им принадлежала большая часть присланных в компанию резюме. Кроме того, инструмент занижал баллы тем кандидатам, в резюме которых содержались словосочетания со словом «женский» — например, «капитан женского шахматного клуба». В Amazon попытались исправить ошибку, но вскоре отказались от использования программы.

Подписывайтесь на канал +1 в Яндекс.Дзен

Автор

Евгения Чернышёва