Какова роль ИИ в гендерных предрассудках, почему это важно и что мы можем с этим поделать?

Гендерное неравенство преследовало нашу цивилизацию веками и продолжает преследовать. Женщинам приходилось бороться за свои основные права, будь то право голоса, право вступать в брак и делать аборт, право на работу или право на получение финансовой помощи. По мере того, как все больше женщин выходят на рынок труда, мы сталкиваемся с такими проблемами, как неравенство в оплате труда, недостаточное представительство женщин и другие глубоко укоренившиеся предубеждения. Некоторые аспекты нашего общества основаны на гендерной иерархии, и мы сами установили это неравенство. Хотя до полного гендерного равенства еще далеко, искусственному интеллекту было поручено решить эти проблемы. Однако существует распространенное заблуждение, что компьютеры и ИИ совершенны и не могут иметь дефектов, подобных человеческим. В результате очень важно понять, что влечет за собой гендерная предвзятость в ИИ.

Так что же такое смещение ИИ?

Любой тип системной аберрации, возникающий в процессе анализа и моделирования, в ИИ называется предвзятостью. Смещение может быть вызвано механикой модели или обнаружено в данных. Предубеждения напоминают шаблоны, используемые машинным обучением для создания прогнозов. Они определяются этическими соображениями, что указывает на то, что при принятии этических решений важны предвзятые или дискриминационные модели. Когда мы обучаем модели, мы должны определить, какие шаблоны предвзяты, а какие нет.

Предвзятость может принимать различные формы. Проблема предвзятости алгоритма заставляет нас верить, что люди, создавшие алгоритм или общую механику модели, привнесли в ее разработку предположения и закономерности из своего мировоззрения. Мы часто сталкиваемся с систематической ошибкой выборки, когда данные искажаются в результате процессов сбора или отбора данных. Погрешность измерения обычно используется для выявления неисправных датчиков или измерительных устройств, однако обычно это не является целью. Во многих ситуациях меры основаны на мнениях и суждениях тех, кто собирает данные.

На все эти предубеждения могут влиять точки зрения людей, участвующих в установлении того, как создается модель прогнозирования, записываются данные и выбираются данные. Даже если бы предубеждения при разработке модели можно было контролировать, а механика и выбор данных были безупречными и справедливыми, простая и печальная правда заключается в том, что собранные данные могут быть предвзятыми, и это предубеждение в конечном итоге отражается в данных.

Как все это работает -

Многие организации полагаются на системы искусственного интеллекта, которые состоят из набора алгоритмов, которые обрабатывают большие объемы данных и извлекают из них уроки, чтобы находить закономерности и делать прогнозы. Эти методы влияют на то, насколько кредитные финансовые учреждения предоставляют разным клиентам, кому медицинская система отдает приоритет в отношении вакцин против COVID-19 и с кем контактируют работодатели при принятии решений о трудоустройстве. Во многих из этих учреждений широко распространена гендерная дискриминация, имеющая серьезные краткосрочные и долгосрочные последствия для психологической, экономической и медицинской безопасности женщин. Это также может способствовать распространению и распространению нежелательных гендерных стереотипов и предрассудков.

Системы ИИ предвзяты, поскольку они являются продуктами человека. На более детальном уровне люди производят, собирают и идентифицируют данные, которые входят в наборы данных. Люди выбирают наборы данных, переменные и правила, на основе которых алгоритмы учатся делать прогнозы. Все эти шаги могут внести предвзятость в системы искусственного интеллекта.

Так что все сводится к данным и правилам, которые генерируются нами. Мы, как люди, можем контролировать то, как они создаются и помещаются в морально здоровую среду. Различные культуры и страны будут иметь разные определения того, что считается справедливым или этичным в этих рекомендациях. И в этом заключается истинная проблема. В конце концов, такие технологии, как алгоритмы искусственного интеллекта, — это просто инструменты, важно то, кто их разработал и как мы их используем.

Сценарии гендерной предвзятости ИИ в реальной жизни –

Состояние кредитоспособности. Женщинам назначаются более низкие кредитные лимиты, чем мужчинам, когда системы искусственного интеллекта, оценивающие кредитоспособность, извлекают уроки из исторических данных. Они увековечивают неравенство в доступе к кредитам, существующее между мужчинами и женщинами.

Процесс найма. Технологическая компания потратила годы на разработку инструмента для найма на основе ИИ, передавая ему рекомендации выдающихся кандидатов. Миссия ИИ состояла в том, чтобы просмотреть резюме и предложить лучшие кандидаты. Поскольку в отрасли доминируют мужчины, подавляющее большинство резюме, используемых для обучения ИИ, были написаны мужчинами, что побудило ИИ дискриминировать женские рекомендации. Корпорация была вынуждена отказаться от ИИ из-за его неспособности забыть предвзятость, несмотря на неоднократные неудачные попытки исправить систему.

Предвзятость в рекламе на Facebook. В 2019 году Facebook разрешил рекламодателям настраивать таргетинг объявлений на основе пола, расы и религии. Например, профессии медсестер и секретарей широко рекламировались для женщин, в то время как уборщики и водители такси активно рекламировались для мужчин, особенно из числа меньшинств. На данный момент работодателям больше не разрешается настраивать таргетинг своих объявлений на Facebook в зависимости от возраста, пола или расы человека.

Неточные медицинские данные. Медицинское тестирование традиционно проводилось на мужчинах и мужских телах. Женские тела считаются слишком сложными и изменчивыми для медицинских исследований, поэтому они исключаются. Исследования на животных болезней, поражающих женщин, даже не включают самок. Медицинские данные отражают это несоответствие.

Виртуальные помощники. У большинства виртуальных помощников с искусственным интеллектом озвучены женские голоса, а самый мощный в мире компьютер Watson назван в честь парня. Преобладание голосовых помощников с женским голосом способствует формированию стереотипа о женщинах как о подчиненных и послушных.

Почему это происходит —

В области искусственного интеллекта мужчин больше, чем женщин. В крупных компаниях, занимающихся машинным обучением, женщины составляют едва ли 20% профессионального персонала. Согласно отчету ЮНЕСКО, женщины составляют около 12% исследователей искусственного интеллекта и 6% разработчиков программных продуктов в этой области технологий ИИ.

В результате мужчины составляют большинство тех, кто работает над этими алгоритмами и устанавливает правила. Дело не в том, что они делают это намеренно, это просто часть человеческого бытия. Даже если большинство дизайнеров — женщины, они склонны работать в удобном для себя стиле. В конце концов, мы бессознательно вносим в алгоритмы свои предубеждения; мы те, кто создает правила.

Предубеждения существуют в каждом из нас, как человеческие существа. У всех нас есть они в нашем распоряжении. Мы такие, какие мы есть, благодаря нашему воспитанию и полученным урокам. И есть шанс, что мы будем передавать их при разработке программного обеспечения.

Очевидно, что этот алгоритм обеспечивает дискриминационный результат на основе пола, цвета кожи, этнической принадлежности или экономических переменных по отношению к определенному классу общества. В результате, если у нас нет сверхинтеллектуальных алгоритмов, которые могут распознавать и исправлять предубеждения самостоятельно, мы, как общество, должны помнить о том, как эти предпочтения влияют на решения, принимаемые ИИ. До тех пор мы, как разработчики программного обеспечения, предприятия и правительства, должны следить за тем, чтобы врожденные предрассудки не приводили к дискриминации женщин и представителей других рас.

Что мы можем с этим поделать?

Хотя этика ИИ является относительно новой областью, эти правила будут неэффективными, пока они не будут действительно соответствовать моральному кодексу и не станут инклюзивными. Требуется международное сотрудничество и установление более жестких норм и правил. Однако нет необходимости воссоздавать колесо или создавать новые этические нормы. Мы просто начинаем с рамок прав человека, чтобы построить прочную жизнь, подтверждающую полезные технологии, которые приносят пользу нуждающимся, а также всем нам, чтобы мы все могли процветать.

Когда системы машинного обучения разрабатываются с благими намерениями, они могут избежать критической проверки предвзятости и риска непредвиденных последствий. Недостаточно хотеть построить превосходную систему. Чтобы побудить разработчиков машинного обучения искать и продвигать гендерно-ориентированное машинное обучение, лидеры социальных изменений должны побуждать исследователей и руководителей компаний и учреждений добиваться и отстаивать гендерное разнообразие, равенство и участие в командах.
Если мы верим в ИИ имеет возможность сделать мир более справедливым, мы должны принять меры. Согласно новому исследованию, различные демографические группы более эффективно уменьшают предрассудки, связанные с алгоритмами. Хорошей отправной точкой может стать продвижение вперед путем обеспечения того, чтобы разнообразие было главной заботой высшего руководства, а также изменение институциональной политики, норм и рамок для увеличения разнообразия и инклюзивности.

Также важно помнить, что данные и алгоритмы по своей природе не являются хорошими или плохими. В результате лидеры отрасли и практики ИИ должны сотрудничать, чтобы отстаивать следующее:

  • Документируйте, что содержится в их наборах данных и моделях машинного обучения. Они также должны искать недопредставленность различных гендерных идентичностей в базах данных, а также лежащие в основе различия, которые отражают реальность, но в конечном итоге являются проблематичными. Иными словами, случайно собранные данные содержат предубеждения, потому что раньше мы жили в предвзятом мире, где равные возможности все еще были несбыточной мечтой. Тем не менее, мы должны предпринять активные шаги, чтобы гарантировать, что используемые нами данные точно представляют всех и не дискриминируют какую-либо группу людей. Наконец, работайте со специалистами по гендерным вопросам, чтобы включить философию и методологию феминистских данных, оценить и решить гендерные последствия любого алгоритма, а также выполнить оценку алгоритмов с учетом гендерных аспектов.
  • Приложите усилия, чтобы интегрировать голоса угнетенных меньшинств в разработку технологий искусственного интеллекта, таких как женщины и небинарные люди.
  • Поощряйте изучение и использование ресурсов других предприятий. Делайте заметки о методах, используемых в разных отраслях. Энергия, не входящая в сеть, и более экологичная кулинария — вот два примера развития технологий, в которых совместное проектирование сочетается с исследованием совместных действий.
  • Для ответственного ИИ разработайте системы управления с учетом гендерных аспектов. Гендерное разнообразие следует учитывать при разработке систем управления этикой ИИ. Рассмотрите способы включения гендера, а также других маргинализированных демографических характеристик в ответственные или этические нормы и принципы ИИ для достижения справедливости и равноправия.

Цель должна заключаться в популяризации идеи применения принципов прав человека ко всему, что мы делаем с ИИ, а затем в выявлении и заполнении пробелов этическими решениями. Жизненно важно обсудить потенциально дискриминационную практику, чтобы можно было принять меры для поощрения изменений, а не предвзятости. Фундамент этического ИИ на его возможном, захватывающем будущем этапе может быть заложен уже сейчас в простейших компонентах автоматизации.

Заключение -

В целом модели и алгоритмы ИИ изображаются объективными и нейтральными, что явно не соответствует действительности. Фирмы должны выбрать, какие виды предубеждений они не будут учитывать при принятии решений по прогнозированию, чтобы избежать последствий предубеждений. Крайне важно, чтобы эта сексистская система развивалась и менялась к лучшему, и первым шагом в этом направлении является вовлечение в этот процесс большего числа женщин и разнообразие задействованных команд. Кроме того, данные, которые мы загружаем в наши системы, должны обрабатываться с осторожностью, и они должны регулярно обновляться, чтобы идти в ногу со временем. Женщины постепенно завоевывают известность, и машины не смогут узнать об этом включении самостоятельно. Таким образом, в то время как феминистские движения ИИ пытаются создать сеть различных женщин в ИИ, продвигать справедливость и равенство и устранять предвзятость в ИИ, команды по оценке дизайна могут вмешаться и проверить наличие предубеждений.

Хотя предвзятость является неотъемлемой частью жизни, она не обязательно должна быть неизбежной чертой новых технологий. Мы можем начать заново с новой технологией, но одни только алгоритмы не устранят предвзятость; лица должны это делать. Так что, надеюсь, мы, мужчины, женщины и все остальные, будем работать вместе, чтобы сформировать будущее общества искусственного интеллекта, свободного от предубеждений.