Возьмем, к примеру, программу отбора и найма ИИ, которая была обучена предыдущим, реальным человеческим выборам. Мало того, что у него те же предубеждения, что и у людей, они теперь закреплены как часть алгоритма. Они еще более усиливаются, поскольку принятие расистских решений затем передается обратно в алгоритм, чтобы обучать его в усиливающем цикле, что усиливает дискриминацию.

Я использую здесь термин «расист» очень широко, чтобы обозначить любой тип предвзятости. Конечно, гонка кандидатов может быть скрытой, «слепой», чтобы защитить кандидата. Но что не скрывается, так это местонахождение кандидата, школа, которую он посещал, и другие данные, которые часто могут коррелировать с расой или другими личными качествами, которые не должны иметь ничего общего с вашей квалификацией. Сложные алгоритмы, ищущие хороших кандидатов, могут использовать любую эту информацию и косвенно стать расистскими, будь то использование реальных данных о найме для «обучения» или обучение с нуля.

Более того, эти алгоритмы не ищут хорошего кандидата, они ищут кандидата, который больше всего напоминает наиболее успешных предыдущих кандидатов. Здесь нет места «черной овце», инноваторам, нестандартному блеску и бунтарям, которые нужны всем компаниям. Это выбросы в алгоритме, которые никуда не вписываются в процессе выбора и будут отброшены в корзину «вопросительный знак».

Но даже если бы ИИ не обучался человеческому выбору, а был предоставлен самому себе для создания своего алгоритма, он все равно был бы расистом. В поисках подходящего кандидата на работу, чтобы разобраться в огромной куче резюме, он будет снова искать то, что лучше всего соответствует стереотипу, на который указывают данные.

Это вопрос не будущего, а вопроса прямо сейчас, поскольку программное обеспечение ИИ все чаще используется при отборе кандидатов. Я не эксперт и точно не знаю, что учитывают алгоритмы при принятии решения. И это часть тревоги, не зная, с чем мы имеем дело. Мы не знаем, что входит в алгоритмы.

Здесь по-прежнему нужны люди. Потому что люди со всеми их ошибками (и расизмом) количественно не работают. Они способны «взвесить» важность хороших и плохих элементов в кандидате и, в некоторых случаях, сделать исключение. На самом деле, всегда есть какие-то исключения, поскольку каждый кандидат уникален. И ИИ не любит делать исключений. Ему нравится группировать вещи и людей в ведра. Если бы мы полностью поддались ИИ, мы бы исключили Ван Гога из художественной школы, потому что он был странным, Эйнштейна — из физики, потому что его волосы не подчиняются гравитации (конечно, как он мог это пропустить), и, возможно, превзошли бы Трампа за его безупречную налоговую декларацию ( несмотря на волосы, плюс мы все знаем, что произошло, когда те налоговые декларации были изучены более подробно).

Но беспокойство может быть меньше о качестве отобранных кандидатов, а больше о должностях, на которые кандидаты подбираются в первую очередь. Люди претендуют на работу все меньше и меньше. Вместо этого охотой занимаются компании и ИИ. Вместо того, чтобы искать работу, подходящую нам, сами рабочие места ищут подходящего кандидата. Поток и объем возможностей больше не зависит от вас. Они находят вас на основе вашего профиля и истории, а это означает, что если вы хотите сменить карьеру, ИИ не будет вам сочувствовать.

Является ли это еще одним примером того, как нашей личной свободе, нашему праву на самоопределение, цепляться за наши особенности и уникальные качества вот-вот будет нанесен смертельный удар?

Моя книга Becoming Imperfect доступна на Amazon в форматах Kindle и Paperback.