В том, что общество расистское, виноват не алгоритм.

В течение пяти лет британское правительство использовало расистский алгоритм, чтобы помочь определить результат подачи заявлений на визу. На прошлой неделе объявили, что его «нужно восстанавливать с нуля».

«Собственный независимый анализ министерства внутренних дел скандала с Виндрашем показал, что оно не обращает внимания на расистские предположения и системы, которыми оно управляет. Этот инструмент стриминга использовал десятилетия институционально расистских практик, таких как нацеливание на определенные национальности для иммиграционных рейдов, и превратил их в программное обеспечение. Иммиграционная система должна быть перестроена с нуля, чтобы отслеживать такую ​​предвзятость и искоренять ее ».

Это колоссальная победа для всех, - правительство начало выявлять части расистской машины и теперь разбирает их. Это справедливость. Но как правительство заполучило расистский алгоритм? Кто это разработал? И следует ли их наказывать?

Рукописные алгоритмы
Исторически алгоритмы были рукописными, когда разработчики вручную устанавливали параметры, определяющие результат работы алгоритма. Известным примером является алгоритм Facebook EdgeRank, который учитывает три ничтожных фактора (привязанность пользователей, взвешивание контента и спад на основе времени).

Оценка между пользователями рассчитывается на основе того, насколько «сильными» разработчики алгоритма считают свое взаимодействие, например они диктуют, что если вы поделились сообщением своего друга на прошлой неделе, он вам понравится на 20% больше, чем ваш другой партнер, который сделал аналогичное сообщение, а вместо этого он вам понравился.

На этом этапе Facebook было бы довольно легко нести ответственность за результаты своих алгоритмов. Они точно сказали ему, что делать, чтобы они несли ответственность за результаты своего алгоритма. К сожалению, это уже не так, популярные коммерческие алгоритмы претерпели радикальные изменения в конструкции. Параметры, которые когда-то были «написаны от руки», теперь определяются призраком в машине.

Призрак в машине
С начала 2011 года по 2015 год Facebook использовал свой новый алгоритм машинного обучения, чтобы определять, что пользователи видят в своих новостных лентах, вместо трех параметров, считает этот новый зверь. не менее 100 000 различных факторов, которые взвешиваются алгоритмами машинного обучения (ML) (источник - Facebook до сих пор использует алгоритм машинного обучения). Разработчикам алгоритмов неизвестен ни один из этих параметров, ИИ - это черный ящик, который выдает ответ на основе той информации, которую ему подали ранее.

В статье Этика алгоритмов: отображение дискуссии авторы выделяют шесть этических проблем, возникающих при использовании алгоритмов. Эпистемологические проблемы (степень проверки знаний) возникают из-за плохих наборов данных, без надежных данных ваш ИИ не собирается принимать правильные решения. Результаты и поведение, вызываемое этими алгоритмами, создают нормативные проблемы, они помогают создать новую нежелательную норму из низкокачественных наборов данных. Затем, когда все сказано и сделано, ни одно из этих решений не может быть прослежено до их истоков, и никто не несет ответственности за результаты.



Данные Windrush
«инструмент потоковой передачи» (алгоритм ML), используемый британским правительством, оценивал каждого заявителя на визу красным, желтым или зеленым цветом - это сильно повлияло бы на результат решения правительства о том, будет ли или не выдавать визу. Наборы (расистских) данных, которые были введены в этот алгоритм, были определенно ошибочными, неубедительными и содержательными. Результаты определялись наборами данных, созданными в прошлом людьми, которые считали кого-то угрозой исключительно на основании цвета их кожи или страны происхождения. Эти расистские данные вводились в алгоритм, и алгоритм принимал расистские решения.

Таким образом, алгоритм не виноват в том, что создатели набора данных были расистами, этот алгоритм был полностью нейтральным, он только показал нам отражение недостатков данных, которые он получил. Что можно сделать для повышения этики наших алгоритмов и наших наборов данных, чтобы уменьшить несправедливые результаты?

  • Прозрачные алгоритмы помогут разработчикам и потребителям понять неэтичные предубеждения внутри машины. После выявления модель или набор данных могут быть уточнены, чтобы устранить предвзятость.
  • Улучшенное регулирование данных необходимо для предотвращения ненадлежащего обращения с данными с целью создания несправедливых результатов для меньшинств и общества в целом.
  • Образование поможет видеть без розовых очков. Чтобы понять, что это ВАШИ данные и у вас должны быть соответствующие права на их защиту. Неспособность сделать это только подпитывает неэтичные алгоритмы.


Заключительные мысли
Алгоритмы машинного обучения популярны по двум очень веским причинам: они прибыльны и ИИ привлекателен. Естественно, первое имеет коммерческий интерес, и большинство студентов, изучающих информатику, думают о втором.

Я призываю всех обсудить эту тему со своими друзьями и семьей, потому что эти алгоритмы намного мощнее, чем думает большинство людей.

Популярные алгоритмы диктуют, как мы думаем, выбирая то, что мы видим ежедневно, они выбирают наши новости, они выбирают наши фильмы, они выбирают наш гардероб, они выбирают наших романтических партнеров, они выбирают наших друзей ... И никто не знает, как они это делают, поэтому никто не несет ответственности.