Все, что вам нужно знать, чтобы начать работу с этикой ИИ

Этика искусственного интеллекта — это то, о чем сейчас все говорят. Беспилотные автомобили, системы распознавания лиц и критической оценки — все это передовые решения, которые вызывают множество этических соображений. В этом посте мы поговорим об общих проблемах, с которыми сегодня сталкивается ИИ, и о том, как специалисты по этике ИИ пытаются их исправить.

Что такое ИИ?

Я предполагаю, что если вы читаете этот пост, вы уже встречались с термином искусственный интеллект и знаете, что он означает. Если нет, то посмотрите наш пост об искусственном интеллекте, он поможет.

Также возможно, что слово «этика» вам немного непонятно. Не беспокойтесь ― вот простое объяснение.

Что вы понимаете под этикой?

Этика, также называемая моральной философией, — это раздел философии, изучающий правильное и неправильное поведение. В нем говорится о том, что хорошо и что плохо, что справедливо и что несправедливо и так далее. В общем, цель этики — предложить ценности, которым мы можем следовать, чтобы жить без сожалений.

Есть три основных подполя этики.

Нормативная этика

Нормативная этика регулирует поведение. Он говорит нам, что делать правильно, а что неправильно. Например, Золотое правило является примером нормативной этики: относитесь к другим так, как хотите, чтобы относились к вам.

Прикладная этика

Прикладная этика изучает моральные проблемы и дилеммы, которые часто возникают в личной, политической или общественной жизни. Примером прикладного этического вопроса является необходимость легализации эвтаназии.

Метаэтика

Метаэтика изучает теорию этики. Он определяет понятия, спорит о том, возможно ли вообще этическое знание, и так далее.

Этика ИИ относится к области прикладной этики. Он касается двух вещей: морального поведения людей, создающих ИИ, и поведения машин.

Почему этика важна в ИИ?

Искусственный интеллект — это инструмент. Хорошо это или плохо, зависит от того, как вы его используете. Заставить ИИ лечить рак? Хорошо. Украсть PIN-код кредитной карты у невиновных граждан, плохо. В конце концов, воровать незаконно (дух).

Но что делать, когда все не так очевидно? Например, что, если бы мы жили в мире, где дизайнеры виртуальных помощников в основном мужчины, и они присваивали бы своим ботам женский пол, и учили бы их кокетливой шуткой реагировать на оскорбительные или грубые комментарии?.. Ой, подождите, минута.

Создание виртуальных помощников не является незаконным. Незаконно даже ожидать, что женщины будут вести себя определенным образом. Но допустимо ли с моральной точки зрения создавать предвзятые технологии?

Этика искусственного интеллекта предназначена для того, чтобы сказать нам, когда мы поступаем неправильно. Даже если закон ничего не запрещает. Закон никогда не может опережать научные разработки и всегда играет в догонялки, отсюда требование этики. Технологические компании должны навязывать себе границы.

Что подразумевается под этическим подходом к ИИ?

Каждое общество живет по определенным правилам. Некоторые из них вошли в правовую систему. Например, во многих странах нарушение авторских прав является незаконным.

При этом некоторые правила нигде не прописаны. Ни один закон не предписывает вам помогать потерявшемуся 5-летнему ребенку найти его родителей или переходить дорогу пожилой женщине. Но вы все равно сделаете это, даже если никто не смотрит.

У людей есть моральные ценности, которые контролируют их поведение гораздо эффективнее, чем страх перед законом. И мы не единственные.

В течение многих лет ученые считали, что единственным видом, обладающим эмпатией, являются люди. Они провели множество экспериментов, пытаясь заставить животных, от приматов до слонов и крыс, помогать друг другу. И не обнаружил особого альтруизма в их отношениях.

Но Франциск Бернардус Мария (Франс) де Вааль не согласился. Он провел десятилетия, изучая социальные отношения приматов. И обнаружил, что во многих случаях животные просто не понимали, как вступать в сложные взаимодействия, предложенные учеными. Когда де Ваал и его исследовательская группа придумали эксперименты, более удобные для животных, они сделали много интересных открытий. Слоны оказались способными к командной работе, а шимпанзе продемонстрировали большое уважение к частной собственности. Другие животные, такие как дельфины и бонобо, также были довольно просоциальными. Все потому, что эгоистичное поведение не способствует сохранению видов в долгосрочной перспективе.

Сегодня мы живем бок о бок с искусственным интеллектом. Хотя сегодняшний ИИ не так умен, как андроиды из мира Детройта: Стать человеком, он уже активно участвует в принятии важных решений. Например, это был алгоритм ИИ, который решал, кто больше достоин медицинской помощи и поставок во время кризиса COVID-19.

Если мы позволим ИИ принимать такие важные решения за нас, мы должны убедиться, что он на нашей стороне. Даже когда он соответствует требованиям закона, ИИ все равно может быть вредным. ИИ должен унаследовать от нас моральные ценности и, по сути, научиться быть хорошим существом.

Основные принципы этики ИИ

Сегодня активно исследуется этическая область искусственного интеллекта. Среди всех этико-философских рамок преобладают две: утилитаризм и деонтология.

Утилитаризм

Утилитаризм — философский подход к измерению правоты своих действий, сформулированный Дж. Милль и Дж. Бентам. В его основе лежит убеждение, что все люди хотят максимизировать удовольствие и минимизировать боль. Следовательно, хорошее действие — это то, которое максимизирует удовольствие и для наибольшего числа людей. Однако, применяя утилитаризм к реальным жизненным ситуациям, мы рискуем разработать программу искусственного интеллекта, которая просто бесчеловечна. Например, убийство одного человека во благо многих является утилитарным, но для многих людей морально неправильным.

Деонтология

Деонтология — это этическая теория, представляющая собой набор четких правил, где мораль определяется как степень соблюдения кем-либо этих правил. Например, христианство может быть примером деонтологии, где нравственность человека измеряется тем, следуют ли они Десяти заповедям.

Деонтологию часто связывают с Иммануилом Кантом. Он считал, что поскольку у каждого человека есть способность рассуждать, ему присуще достоинство. Поэтому безнравственно нарушать или неуважительно относиться к этому достоинству. Например, мы не должны относиться к человеку просто как к «средству для достижения цели».

Большинство специалистов по этике сегодня считают, что деонтология — это подход, который следует использовать для разработки систем ИИ. Мы можем кодировать правила в их программах, и это гарантирует, что ИИ всегда будет на нашей стороне. Но, тем не менее, последствия строгого следования заранее определенному набору правил могут быть довольно непредсказуемыми. Трудно установить правила, которые наверняка не заставят всю вселенную превратиться в скрепки.

Именно поэтому нельзя не упомянуть и Айзека Азимова, писателя-фантаста. Еще в 1940-х годах он предложил Три закона робототехники, которые определяют моральные действия машин в его серии «Роботы»:

  • Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  • Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому закону.
  • Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму законам.

Несмотря на то, что прошло много времени, многие исследователи и разработчики ИИ согласны с тем, что наши сегодняшние цели не должны уходить слишком далеко от следования этим правилам. Законы Азимова в основном охватывают основные принципы этики ИИ, такие как благодеяние и непричинение вреда, справедливость и защита конфиденциальности.

Каковы этические проблемы ИИ?

Вот некоторые из проблем, которые сделали этику такой необходимой областью в ИИ сегодня.

Справедливость и предвзятость

Когда мы говорим о проблемах, связанных с алгоритмами ИИ, справедливость и предвзятость входят в число наиболее часто упоминаемых.

Мы хотим относиться ко всем людям одинаково. Во-первых, потому что, подобно Иммануилу Канту, мы верим, что все люди заслуживают уважения. Во-вторых, потому что справедливость является основой стабильного общества. Когда какое-либо гендерное или этническое меньшинство чувствует дискриминацию, это вызывает тревогу и тревогу в обществе. ИИ постепенно становится одним из социальных институтов, и большинство людей ожидают, что их социальные институты будут справедливыми (или, по крайней мере, стремятся быть справедливыми).

Дело в том, что справедливость, однако, очень сложна. Как определить справедливость в наборе конкретных правил, чтобы алгоритм мог их понять?

Предвзятость является препятствием для достижения справедливости. Когда мы говорим о людях, то под когнитивным искажением обычно подразумеваем некоторую пристрастность к вещи, событию, группе людей. Опасность предвзятости заключается в том, что обычно люди не осознают этого — для них это просто похоже на здравый смысл.

Компьютеры также могут быть предвзятыми. Иногда это происходит из-за алгоритмической логики, закодированной предвзятыми людьми. Но чаще у ИИ возникают предубеждения против группы людей из-за аномалии в данных. Например, система найма Amazon отбрасывала женские резюме не потому, что разработчики не хотели, чтобы их нанимали, а потому, что исторически мало женщин занимали эти должности.

Прозрачность

Представьте, что вы построили систему распознавания лиц для метро, ​​которая автоматически выявляет и ловит преступников. Он отлично работал, сопоставляя пассажиров с лицами разыскиваемых преступников, пока однажды не допустил ошибку. И снова, и снова. Вам пришлось удержать несколько невиновных людей и пригласить команду разработчиков для исправления ошибок в системе, из-за которых она вышла из строя.

Но с ИИ не всегда можно сказать, почему он сделал тот или иной вывод. Системы распознавания лиц обычно основаны на нейронных сетях и работают по так называемому принципу «черного ящика». Вы скармливаете ему какие-то данные и просите искать закономерности, но какие правила он выучит сам, предсказать практически невозможно. Что еще более важно, вы не можете открыть его и увидеть правила, которые он использует.

Например, компьютерное зрение ИИ, используемое для диагностики заболеваний, может чаще ставить положительный диагноз по фотографиям, сделанным в медицинском кабинете. Если человек уже находится в медицинском кабинете, вероятность того, что человек болен, выше. Но совершенно очевидно, что пребывание в кабинете врача не вызывает у людей болезни.

Это отсутствие видимости является проблемой, когда эти системы используются для принятия решений, влияющих на жизнь людей. Команда разработчиков может буквально потратить годы, пока не найдет причину неправильных прогнозов в системе.

Кроме того, здесь возникает моральный вопрос: пациент не только заслуживает знать свой диагноз, но и быть информированным на основании того, что врач решил по поводу этого диагноза. Представьте ситуацию: родственникам тяжелобольного сообщают, что их родственника отключают от аппарата жизнеобеспечения. Спрашивают, нужно ли, может еще что-то можно сделать. И получаем ответ: Мы не знаем, наш ИИ сказал, что так будет оптимальнее. Или подумайте о системе оценки риска: если вы находитесь в суде, вы, вероятно, хотели бы знать наверняка, что вам не назначено более суровое наказание только из-за вашего тона кожи.

Подотчетность

Машины ошибаются сегодня и, скорее всего, будут ошибаться в будущем. Но ответственность за эти ошибки становится расплывчатой. Например, непонятно, кто несет ответственность за аварию беспилотного автомобиля: производитель автомобиля, владелец или сам алгоритм?

В этике ИИ ответственность понимается в трех измерениях:

  • Какие люди (или группы людей) несут ответственность за влияние алгоритмов или ИИ?
  • Как общество может использовать и развивать ИИ юридически и морально приемлемым образом?
  • Какую моральную и юридическую ответственность мы должны требовать от самой системы ИИ?

Ответственность может быть юридической или моральной. Юридическая ответственность описывает события и обстоятельства, при которых должно иметь место юридическое наказание. Актер несет ответственность за действие, когда его вина доказана правоохранительными органами.

Моральная ответственность и юридическая ответственность не всегда одно и то же. В философии моральная ответственность — это способность решать, какие действия заслуживают похвалы. Эта внутренняя ответственность и есть внутренний статус: хотя нормы, существующие в обществе, могут влиять на него, каждый человек сам решает, какие ценности он считает морально обязательными.

Что читать дальше

Если вы хотите продолжить изучение этики ИИ, вот несколько полезных ресурсов:

И, конечно же, следите за обновлениями нашего блога! Мы продолжим публиковать материалы об ответственном использовании технологий.

Первоначально опубликовано на https://serokell.io.