Я давно думал о предвзятости ИИ, и сегодняшняя сессия IBM Research Science Slam на конференции IBM Think 2018 дала мне еще один шанс снова подумать об этом. Франческа Росси рассказала об этике ИИ с точки зрения IBM Research (см. Видео выше). Я также говорил об этом сегодня в подкасте с Валом Беровичи из Pencil Data. В этом посте я собираюсь задать контекст для будущих обсуждений, коснувшись факторов, влияющих на предвзятость в ИИ, и того, как в некоторых случаях мы должны принудительно вводить предвзятость.

Проблема предвзятости ИИ - сложная проблема. Если не оспаривать это, это может привести к ситуациям, в которых общество будет выглядеть более трайбалистическим, но, в то же время, позволить Кремниевой долине определять ценности может быть проблематичным. Необходим открытый разговор о том, как сделать так, чтобы общество, основанное на ИИ, отражало нашу систему ценностей. Кроме того, наша система ценностей постоянно развивается, и мы должны обеспечить, чтобы эта эволюция нашей системы ценностей осуществлялась с помощью данных или алгоритмических настроек. Эту проблему нелегко решить, но легко начать говорить об этой проблеме прямо сейчас, чтобы мы были в хорошей позиции, чтобы справиться с ней, когда придет время действовать.

Источники смещения ИИ

Несмотря на то, что данные являются критическим источником предвзятости ИИ, это лишь один из многих, которые нам необходимо учитывать. Я перечисляю четыре источника предвзятости, с моей точки зрения, и хотел бы услышать ваше мнение по этому поводу.

  • Предвзятые данные: это самый большой источник предвзятости ИИ. Посмотрим правде в глаза основным фактам. В мире меняются их системы ценностей, и дискриминационное поведение по-прежнему является неотъемлемой частью каждого общества. Набор данных, созданный таким миром, будет охватывать все виды предубеждений от прошлого к настоящему. Такие данные будут искажать ИИ, и выявить причину смещения и исправить ее непросто, поскольку все системы ИИ являются черным ящиком.
  • Алгоритмический уклон. Хотя компьютеры становятся все лучше при написании кода, люди по-прежнему несут ответственность за разработку алгоритма. Человеческие предубеждения будут вставлены в код сознательно или неосознанно. Даже алгоритмы, генерируемые машинами, выполняются «интеллектуальными системами», обучающие данные которых поступают от людей.
  • Географическая предвзятость. Я давно утверждаю в социальных сетях, что и ИИ, и геномика сильно пострадают из-за отсутствия данных из разных географических регионов. Да, всемирная паутина и социальные сети немного сгладили мир, но данных со всего мира недостаточно, чтобы сделать наборы обучающих данных репрезентативными для населения мира. Данные из некоторых стран Азии, Африки или Южной Америки по-прежнему ограничены по сравнению с Северной Америкой и Западной Европой.
  • Языковой сдвиг. В основе большинства данных, используемых в обучающих наборах, лежит английский язык. Китай лидирует по китайскому языку, но есть много других языков, которые не представлены в наборах данных ИИ.

Предубеждения, связанные с географией и языком, приведут к серьезным культурным предубеждениям, которые окажут драматическое влияние, поскольку ИИ станет основой жизни.

Вызвание смещения

Даже если мы волшебным образом устраним любую предвзятость в данных и алгоритмах, мы столкнемся с проблемами с другой стороны. Свободные от предвзятости данные / алгоритм не будут представлять наш мир. В наших алгоритмах ИИ должны быть определенные предубеждения, имитирующие наши системы ценностей. Хорошим примером является роль пола в определении наказания за тяжкие преступления. Данные ясно показывают, что мужчины совершают больше насильственных преступлений, чем женщины. В обществе, свободном от ИИ, мы будем более сурово наказывать мужчин за насильственные преступления, чем женщин, в качестве сдерживающего фактора. Если мы удалим любую предвзятость в ИИ, он будет одинаково наказывать мужчин и женщин за насильственные преступления. Это не идеально для общества (без учета достижений нейробиологии и медицины, которые могли бы решить некоторые из этих проблем), и нам нужно вызвать предвзятое отношение к мужчинам, причастным к насильственным преступлениям. Это нормально для многих, и быстрый (и очень ненаучный) опрос в твиттере, который я провел, подтверждает поддержку предвзятого отношения ИИ к мужчинам, совершающим насильственные преступления.

Но давайте теперь рассмотрим другой сценарий, в котором данные показывают, что определенная группа (на основе расы, религии или другой антропогенной сегрегации) совершает более жестокие преступления, чем другие группы (это зависит от страны). Если бы я провел опрос по этому вопросу, результат не подтвердил бы предвзятость в отношении определенных групп людей. Лично я бы боролся против навязывания таких предубеждений, потому что это противоречит моей системе ценностей. Но для многих других создание дискриминационных предубеждений может быть приемлемым или неизбежным злом. Справляться с такими ситуациями непросто. Если в системы искусственного интеллекта вносится неправильная предвзятость (помните, что это черные ящики), последствия могут быть непредсказуемыми и зачастую разрушительными.

Наведение предвзятости важно для самого функционирования обществ, основанных на ИИ, но предел погрешности практически равен нулю. Для нас важно выяснить, как мы можем вызвать необходимые предубеждения, но при этом сохранить способ их развить, когда в этом больше нет необходимости. Это непростая социальная проблема, и это определенно непростая технологическая проблема.

Пора нам как отрасли задуматься об этих социально-политических проблемах и выяснить, как мы позволим системам искусственного интеллекта решать эти проблемы. Эта ситуация не так уж и далека. Системы ИИ уже используются для наказания людей в судебных системах. ИИ также проникает в нашу жизнь во многих различных измерениях. Мы должны начать обсуждение этих вопросов СЕЙЧАС !!