Справедливость

Автор: Олуфеми Виктор Толулоп.

В течение долгого времени ученые-компьютерщики пытались свести справедливость алгоритма к единому определению, в то время как некоторые сдались, некоторые другие пришли к выводу, что математически невозможно удовлетворить всем критериям без некоторого компромисса (Kleinberg, Mullainathan, & Raghavan, 2016). Исследователи и психологи тоже не упростили задачу, предложив различные определения справедливости (Ebert, 2020). Однако правда остается в том, что Справедливость — сложная тема, и ее нельзя поместить в одно определение или экстраполировать в единую формулу. (Григорий, 2020)

В прошлом ученые-компьютерщики считали, что оптимизация потерь или точности является основной целью, поэтому статистические показатели использовались в качестве основного показателя производительности алгоритма. Они больше сосредоточились на статистической погрешности — остановившись на разнице между истинным значением и оценочным значением. Проблема со статистическим смещением заключается в том, что оно не учитывает ошибки или распределение этих ошибок, смещение имеет чистое направление и величину, а это означает, что усреднение большого количества наблюдений не устраняет его влияние, поэтому нет смысла увеличивать выборку. размер. И если систематическая ошибка достаточно велика, она может сделать недействительными любые выводы, сделанные на основе данных.

Мы могли бы продолжать болтать о провале статистических алгоритмов в моделировании справедливости и обнаружении предвзятости. По моему собственному мнению, я чувствую, что мы должны прекратить споры о математической корректности и вместо этого взглянуть внутрь себя на то, как эти алгоритмы могут поддерживать человеческие ценности. С появлением искусственного интеллекта и машинного обучения, когда эти алгоритмы напрямую влияют на нашу повседневную жизнь, важно понимать справедливость с точки зрения машины. Мы должны помнить, что справедливость — это социотехническая проблема, и что количественные показатели справедливости не охватывают многие аспекты справедливости, такие как справедливость и соблюдение процессуальных норм. (Майкрософт, 2022 г.)

Смещение в развернутых моделях машинного обучения является побочным эффектом максимизации метрики. Мы обнаружили, что модели машинного обучения хорошо подбирают прокси, а это означает, что удаление пола или расы из вашего набора данных перед построением модели не обязательно решает проблему систематической ошибки, поскольку модель все еще может делать выводы о стратификации на основе других коррелированных функций. (Хардт, Прайс и Сребро, 2016 г.)

Еще одна актуальная проблема — петля обратной связи. Алгоритмы, влияющие на решения, могут, в свою очередь, создать петлю обратной связи. Например, если алгоритм, используемый в службе безопасности, предсказывает район как очаг преступности, туда будет отправлено больше полиции и будет произведено больше арестов по сравнению с другими районами. Дополнительные аресты будут означать, что это место является горячей точкой, заставляющей заинтересованную сторону присылать еще больше полиции.

Предвзятость в наших данных превращается в предвзятость в нашем алгоритме, который, в свою очередь, влияет на общество. В 2017 году Faceapp обвинили в наличии на платформе расистской функции под названием «горячая», которая осветляла лица. Они извинились, заявив, что это было непреднамеренное поведение, и объяснили это побочным эффектом предвзятости в наборе обучающих данных. (Гардиан, 2017)

Ранняя предвзятость в гугл-переводчике была быстро устранена, до сих пор, когда вы переводили «она врач» на турецкий и обратно на английский, в конечном результате вы получали «Он врач». Компания Google представила инновационное решение, которое дает как мужские, так и женские результаты. Даже поисковая система Google в прошлом отображала только изображения мужчин, когда вы искали генерального директора.

Статья Джоя Буоламвини и Тимнита Гебру, посвященная гендерным оттенкам, показала отражение предвзятости в системе распознавания лиц ведущих игроков, таких как Amazon, Google и Microsoft. Они также показали, что общедоступный набор данных IJB-A, который многие люди использовали для создания программного обеспечения для распознавания лиц, содержал только 4,4% темнокожих женщин в соответствии с документом гендерных оттенков. (Буоламвини и Гебру, 2018 г.)

Предвзятость в алгоритмах часто бывает непреднамеренной, поскольку она возникает из-за предвзятости в обучающих наборах данных, которые обычно являются отражением общества в его нынешнем виде. Но хотим ли мы, чтобы эти машины и создаваемые нами алгоритмы отражали эти стереотипы? Причинение репрезентативному ущербу, усиливающему подчинение некоторых групп? Некоторые люди могут задаться вопросом: если люди предвзяты, то почему нас беспокоит восприятие машины? Выделю несколько причин.

  1. Машинное обучение усиливает предвзятость: поскольку цель состоит в том, чтобы оптимизировать функцию потерь, алгоритмы машинного обучения усиливают стереотипы в стремлении достичь наилучшего оптимизированного показателя.
  2. Алгоритмы и люди используются по-разному — существует общее мнение, что компьютеры не предвзяты. В большинстве случаев люди склонны верить результатам машин как абсолютной истине. Было бы потрясающе иметь такую ​​уверенность в предвзятом алгоритме.
  3. Технологии — это сила, а с большой силой приходит и большая ответственность
  4. Машинное обучение может создавать циклы обратной связи

Кэти О’Нил в книге «Оружие математического разрушения»: «Привилегированные обрабатываются людьми, бедные обрабатываются алгоритмами»

Предвзятость в данных неизбежна, однако существует множество способов, которыми мы можем внести свой вклад в создание более этичных алгоритмов. Таблицы данных для документа о наборе данных четко объясняют необходимость таблицы данных, когда набор данных курируется, чтобы помочь исследователям и практикам понять природу набора данных, прежде чем переходить к его дальнейшему построению. (Гебру и др., 2018 г.)

Что мы можем сделать, чтобы внести свой вклад?. Отдельные лица, инженеры, исследователи и даже эксперты в предметной области могут внести свой вклад в создание этических алгоритмов.

  1. Свяжите простейшие проблемы со справедливостью и справедливостью. Анализ проекта на работе/учебе поможет расширить ваше понимание сложности справедливости.
  2. Направляйте работу технолога — как исследователь или эксперт в предметной области вы можете иметь более широкое представление о вреде, поэтому высказывание поможет направить этическое развитие.
  3. Изучите последствия для общества — задавайте вопросы, имея в виду общество
  4. Работайте с экспертами в предметной области — как технолог, работайте с исследователями и экспертами в данной области, чтобы лучше понять проблемы.
  5. Увеличьте разнообразие на рабочем месте
  6. Сторонник хорошей политики
  7. Будьте в постоянном поиске предвзятости

Вопросы, которые следует задать. Правильные вопросы о проекте помогут структурировать мыслительный процесс команды, обеспечивая этическое развитие.

  1. Должны ли мы делать это?
  2. Какое смещение в наборе данных?
  3. Можно ли проверить код и данные?
  4. Какова частота ошибок для разных подгрупп?
  5. Какова точность простой альтернативы, основанной на правилах?
  6. Какие существуют процессы для обработки апелляций или ошибок?
  7. Насколько разнообразна команда, которая его построила

В заключение, справедливость — это несколько сложный термин с широким диапазоном определений. Его определение зависит от контекста, приложения и даже заинтересованной стороны. Однако целью должно оставаться создание алгоритмических систем, продвигающих человеческие ценности, которые нельзя свести к формуле.