Можем ли мы научить машины морали? Три взгляда на этику искусственного интеллекта

Прежде чем дать машинам чувство морали, люди должны сначала определить мораль так, как компьютеры могут обрабатывать. Задача сложная, но не невыполнимая.

Сегодня трудно представить себе такую ​​захватывающую и устрашающую технологию, как машинное обучение. В то время как освещение в средствах массовой информации и исследовательские статьи постоянно рекламируют потенциал машинного обучения как важнейшего двигателя позитивных изменений в бизнесе и обществе, у всех на уме не утихает вопрос: А что, если все пойдет ужасно неправильно? »

В течение многих лет эксперты предупреждали о непредвиденных последствиях общего искусственного интеллекта (ИИ) для общества. Рэй Курцвейл предсказывает, что к 2029 году интеллектуальные машины смогут перехитрить людей. Стивен Хокинг утверждает, что как только люди разовьют полноценный ИИ, он будет развиваться сам по себе и будет модернизироваться со все возрастающей скоростью. Илон Маск предупреждает, что ИИ может представлять фундаментальную опасность для существования человеческой цивилизации. В средствах массовой информации изобилуют алармистские взгляды на ужасающий потенциал ИИ в целом.

Чаще всего эти антиутопические пророчества встречались с призывами к более этичному внедрению систем ИИ; что инженеры каким-то образом должны наделить автономные системы чувством этики. По мнению некоторых экспертов по искусственному интеллекту, мы можем научить наших будущих повелителей-роботов отличать хорошее от плохого, подобно доброму самаритянинскому ИИ, который всегда будет действовать справедливо сам по себе и помогать людям в беде.

Хотя до этого будущего еще несколько десятилетий, сегодня существует большая неуверенность в том, как мы достигнем этого уровня общего машинного интеллекта, если вообще сможем. Но что более важно на данный момент, так это то, что даже существующие сегодня узкие приложения ИИ требуют нашего неотложного внимания в том, как они принимают моральные решения в практических повседневных ситуациях. Например, это актуально, когда алгоритмы принимают решения о том, кто получает доступ к кредитам, или когда беспилотные автомобили должны рассчитывать ценность человеческой жизни в опасных дорожных ситуациях.

Моральные проблемы в повседневной жизни

Приучить машины морали сложно, потому что люди не могут объективно передать мораль в измеримых показателях, которые упрощают работу компьютера. На самом деле, даже сомнительно, есть ли у нас, как у людей, вообще здравое понимание морали, с которым мы все можем согласиться. В моральных дилеммах люди склонны полагаться на интуицию, а не на сложные расчеты затрат и выгод. С другой стороны, машинам нужны явные и объективные метрики, которые можно четко измерить и оптимизировать.

Например, ИИ-игрок может преуспеть в играх с четкими правилами и границами, узнав, как оптимизировать счет с помощью повторяющихся прохождений. После экспериментов с глубоким обучением с подкреплением в видеоиграх Atari DeepMind от Alphabet смог победить лучших игроков го. Между тем, OpenAI накопил жизненный опыт, чтобы победить лучших игроков-людей на турнире Valve Dota 2, одном из самых популярных киберспортивных соревнований во всем мире.

Но в реальных ситуациях проблемы оптимизации намного сложнее. Например, как научить машину алгоритмически максимизировать справедливость или преодолевать расовые и гендерные предубеждения в ее обучающих данных? Машину нельзя научить тому, что справедливо, если инженеры, разрабатывающие систему искусственного интеллекта, не имеют четкого представления о том, что такое справедливость.

Это заставило некоторых авторов опасаться, что наивное применение алгоритмов к повседневным задачам может усилить структурную дискриминацию и воспроизвести искажения в данных, на которых они основаны. В худшем случае алгоритмы могут отказать меньшинствам в предоставлении услуг, затруднить возможности трудоустройства людей или избрать не того политического кандидата. Некоторые утверждают, что использование ИИ в политике уже имело катастрофические последствия.

Итак, что мы можем с этим поделать? Основываясь на нашем опыте в области машинного обучения, мы полагаем, что есть три способа начать проектировать машины, более ориентированные на этические нормы, со следующими рекомендациями:

1. Четкое определение этического поведения

Исследователям ИИ и специалистам по этике необходимо сформулировать этические ценности как параметры, поддающиеся количественной оценке. Другими словами, им необходимо предоставить машинам явные ответы и правила принятия решений для любых потенциальных этических дилемм, с которыми они могут столкнуться. Это потребует от людей согласования между собой наиболее этичного образа действий в любой конкретной ситуации - задача сложная, но не невыполнимая. Например, Комиссия по этике автоматизированного и подключенного вождения Германии рекомендовала специально запрограммировать этические ценности в беспилотные автомобили, чтобы сделать защиту человеческой жизни превыше всего остального. В случае неизбежной аварии автомобилю следует запретить сталкивать пострадавших друг с другом. Другими словами, машина не должна иметь возможность выбирать, убить ли одного человека, исходя из индивидуальных особенностей, таких как возраст, пол или физическое / психическое состояние, когда авария неизбежна.

2. Краудсорсинг человеческой морали

Инженерам необходимо собрать достаточно данных о явных этических мерах для надлежащего обучения алгоритмов ИИ. Даже после того, как мы определили конкретные показатели для наших этических ценностей, система ИИ может все еще изо всех сил пытаться их уловить, если не будет достаточно объективных данных для обучения моделей. Получить соответствующие данные сложно, потому что этические нормы не всегда могут быть четко стандартизированы. Различные ситуации требуют разных этических подходов, а в некоторых ситуациях может вообще не существовать единого этического курса действий - просто подумайте о летальном автономном оружии, которое в настоящее время разрабатывается для военного применения. Одним из способов решения этой проблемы было бы краудсорсинг потенциальных решений моральных дилемм от миллионов людей. Например, проект MIT Moral Machine показывает, как краудсорсинговые данные можно использовать для эффективного обучения машин и принятия более эффективных моральных решений в контексте беспилотных автомобилей.

3. Повышение прозрачности систем ИИ

Директивным органам необходимо внедрить руководящие принципы, которые сделают решения ИИ в отношении этики более прозрачными, особенно в отношении этических показателей и результатов. Если системы искусственного интеллекта совершают ошибки или имеют нежелательные последствия, мы не можем принять выражение это сделал алгоритм »как адекватное оправдание. Но мы также знаем, что требование полной алгоритмической прозрачности технически несостоятельно (и, откровенно говоря, не очень полезно). Нейронные сети просто слишком сложны, чтобы их могли исследовать люди-инспекторы. Вместо этого должно быть больше прозрачности в том, как инженеры количественно оценивают этические ценности перед их программированием, а также в отношении результатов, полученных ИИ в результате такого выбора. Например, для беспилотных автомобилей это может означать, что подробные журналы всех автоматизированных решений хранятся постоянно, чтобы обеспечить их этическую ответственность.

Следующие шаги для моральных машин

Мы считаем, что эти три рекомендации следует рассматривать как отправную точку для разработки этически согласованных систем искусственного интеллекта. Не привнося этику в системы ИИ, мы можем оказаться в опасной ситуации, позволяя алгоритмам решать, что лучше для нас. Например, в неизбежной аварийной ситуации беспилотным автомобилям нужно будет принять какое-то решение к лучшему или худшему. Но если конструкторы автомобиля не укажут набор этических ценностей, которые могут служить ориентирами для принятия решений, система ИИ может предложить решение, которое причинит больше вреда.

Это означает, что мы не можем просто отказаться от количественной оценки наших ценностей. Уходя от этой критической этической дискуссии, мы делаем неявный моральный выбор. А поскольку машинный интеллект становится все более распространенным в обществе, цена бездействия может быть огромной - это может негативно повлиять на жизни миллиардов людей.

Нельзя предполагать, что машины по своей природе способны к нравственному поведению. Люди должны научить их, что такое мораль, как ее можно измерить и оптимизировать. Для инженеров ИИ это может показаться сложной задачей. В конце концов, определение моральных ценностей - это вызов, с которым человечество боролось на протяжении всей своей истории. Если мы не можем прийти к единому мнению о том, что делает морального человека человеком, как мы можем создавать моральных роботов?

Тем не менее, состояние исследований искусственного интеллекта и его применения в обществе требует от нас окончательного определения морали и ее точного количественного определения. Это сложная, но не невыполнимая задача. Инженеры не могут создать «ИИ Доброго Самаритянина», пока им не хватает формулы для Человека Доброго Самаритянина.

Об авторах: Джейн Завалишина - генеральный директор Фабрики данных Яндекса, поставщика решений на базе искусственного интеллекта для промышленных компаний. Джейн часто выступает по темам бизнес-стратегии и приложений искусственного интеллекта на различных мероприятиях в Европе, на Ближнем Востоке и в Азии. Она входит в состав Советов глобального будущего Всемирного экономического форума. В 2016 году Джейн вошла в список 40 лучших женщин в сфере технологий Силиконовой Республики как вдохновляющий лидер и признана Inspiring Fifty одной из 50 самых вдохновляющих женщин в технологическом секторе в Нидерландах.

Доктор Вячеслав Полонский - исследователь Оксфордского университета, изучающий сложные социальные сети и коллективное поведение. Он имеет докторскую степень в области вычислительных социальных наук и ранее учился в Гарварде, Оксфорде и Лондонской школе экономики. Он является основателем и генеральным директором Avantgarde Analytics, стартапа по машинному обучению, который использует ИИ и поведенческую психологию для следующего поколения алгоритмических кампаний. Вячеслав активно участвует в Эксперте Всемирного экономического форума. Network »и сообщества WEF Global Shapers , где он был куратором Oxford Hub . Он пишет о пересечении социологии, сетевой науки и технологий.

Более ранние версии этой статьи были опубликованы в Сетевом политическом блоге Совета по международным отношениям 14 ноября 2017 г., в Повестке дня Всемирного экономического форума 23 ноября 2017 г. и в официальном блоге BCG Center. for Public Impact »12 декабря 2017 года. Статья также была переведена на французский и польский в других интернет-СМИ.