Алгоритмы, используемые сайтами вакансий, часто не позволяют квалифицированным специалистам когда-либо видеть вакансии.

Консультант по науке о данных Кэти О’Нил помогает компаниям проверять свои алгоритмы, чтобы зарабатывать себе на жизнь. А когда дело доходит до того, как алгоритмы и искусственный интеллект могут способствовать предвзятости при приеме на работу, она сказала, что самая большая проблема даже не в самих работодателях.

Новый закон в США, направленный на то, чтобы помочь соискателям работы понять, как инструменты ИИ используются для их оценки в видео-интервью, недавно возобновил дискуссию о роли ИИ в подборе персонала. Но О’Нил считает, что закон слишком поздно пытается устранить предвзятость.

«Проблема на самом деле заключается еще до того, как поступит приложение. Проблема заключается в том, чтобы найти работу соискателям», - сказал О’Нил, основатель O’Neil Risk Consulting & Algorithmic Auditing. Этот конвейер начинается с сайтов о вакансиях и социальных сетей, где алгоритмы могут играть значительную роль в определении того, какие кандидаты видят какие объявления о вакансиях, и отфильтровывают те, которые считаются неквалифицированными. Вот как, по ее словам, проявляется предвзятость при приеме на работу:

Инструменты найма ИИ далеки от совершенства

Хотя алгоритмы могут ускорить процесс сужения пула кандидатов на вакансию, они часто не очень хороши для поиска наиболее квалифицированных и вместо этого в конечном итоге непропорционально отфильтровывают людей именно по этим категориям.

В 2018 году Amazon закрыла созданный ею инструмент для автоматизации приема на работу с использованием искусственного интеллекта, поскольку он был настроен против женщин. Исследователи также показали, что инструменты искусственного интеллекта, анализирующие видеоинтервью, часто предвзято относятся к людям с ограниченными возможностями.

Неверные данные на входе, неправильные данные на выходе

Есть несколько причин, по которым алгоритмы могут в конечном итоге дискриминировать определенные группы. Программисты «тренируют» алгоритм, показывая ему огромный набор исторических данных. В случае с сайтом о вакансиях они показывают ему информацию о прошлых кандидатах, предлагая ему искать закономерности среди людей, которые в конечном итоге получили работу, а затем он использует их для выявления потенциальных кандидатов с такими же качествами. Однако это может привести к проблемам, если набор данных уже искажен.

Большие данные - это необъективный шум

Другой вопрос заключается в том, почему О’Нил считает, что предвзятые сайты вакансий особенно проблематичны: они учитывают информацию, которая может не иметь никакого отношения к способности кандидата выполнять работу, а не сосредотачиваются только на важных деталях.

Такие сайты, как Facebook, LinkedIn и т. Д., Используют широкий спектр демографической информации для обучения своих алгоритмов. Затем эти алгоритмы помогают определить, какие объявления о вакансиях показываются каким кандидатам, а также какие кандидаты появляются в результатах поиска рекрутеров. Даже если эта информация явно не касается расы или пола кандидата, она все равно может привести к расистским или сексистским результатам.

Не только работодатели сталкиваются с проблемами при найме на работу с предвзятым искусственным интеллектом, это также проблема компаний, которые помогают им находить кандидатов