[В этой серии постов рассказывается, как мы в Sesh открываем принципы построения этического искусственного интеллекта практическими средствами.]

Каждый день мы принимаем решения, которые влияют на нашу жизнь и жизнь окружающих нас людей. Обычно мы пытаемся сделать свою жизнь лучше, не нарушая при этом никаких законов и не зля того бога, которому нас учили следовать.

Однако люди не воздерживаются от убийства или причинения вреда друг другу, потому что юридические или религиозные книги запрещают нам это делать. Вместо этого мы выбираем не делать этого из-за общего набора ценностей и общего избегания боли.

В игровом дизайне мы разделяем людей на типы игроков, включая социальных игроков, исследователей, победителей и убийц. Глядя на этих двух последних, победителей и убийц, они кажутся почти одинаковыми: они оба хотят быть первыми. Разница, однако, заключается в их мотивации: первый хочет выиграть игру, второй хочет, чтобы все остальные проиграли. К счастью, первых гораздо больше, чем вторых.

В реальной жизни большинство людей не хотят причинять вред. Мы остаемся на своей полосе, избегаем конфликтов и, по возможности, пытаемся выйти победителем. Конечно, у нас есть нарциссы, психопаты и социопаты, но обычно люди принимают намеренные решения не причинять друг другу вреда.

Так откуда же берется это скрытое понимание и как нам научить ему машины?

Четыре закона

Исаак Азимов, один из величайших писателей-фантастов всех времен, написал десятки книг и сотни рассказов, посвященных этой проблеме. Его вселенная, охватывающая тысячи лет, имела дело с тем, как взаимодействуют люди и роботы. На самом деле Азимов даже ввел слово «робототехника».

(Примечание: впереди спойлеры. Если вы хотите прочитать основные работы Азимова без предварительного уведомления, перейдите к концу раздела.)

В сочинениях Азимова все роботы в самом сердце своего мозга подчинялись трем законам робототехники:

  • Первый закон: робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  • Второй закон: робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат первому закону.
  • Третий закон: робот должен защищать свое существование до тех пор, пока такая защита не противоречит первому или второму закону.

Гораздо позже в сериале сами роботы добавили четвертый закон:

  • Нулевой закон: робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред.

Это кажется довольно жестким набором правил, чтобы роботы не причиняли вреда. Каждая книга или рассказ в его вселенной так или иначе посвящены тому, как роботы помещаются в особые ситуации, которые ставят эти законы под сомнение. Они проверены и признаны неполными, почему?

Ну, законы Азимова представляют собой конкретные случаи, связанные с тем, что стало известно как проблема вагонетки.

Сколько людей должно умереть?

Задача о тележке состоит в том, что по рельсам мчится неуправляемая тележка. Если он пойдет прямо, то убьет пять человек на трассе. Однако вы можете направить тележку по другому пути, прежде чем она столкнется с ними. На другом треке всего один человек. Вы переключаете трек и убиваете одного человека или ничего не делаете и убиваете пятерых?

На самом деле у нас почти всегда есть больше вариантов, чем два, и это все меняет.

Что ты выбрал? Большинство людей говорят, что они переключат трек. Но вот вариант: та же тележка, те же пять человек. На этот раз вы находитесь на мосту над трассой, и перед вами стоит очень крупный джентльмен. Если его вытолкнуть на рельсы, тележка остановится; если вы этого не сделаете, это убьет пятерых человек. Вы толкаете его?

Результат один и тот же, умирает либо один человек, либо пять человек, однако становится сложнее, когда вам действительно нужно убить одного человека самостоятельно, а не просто переключить направление тележки, чтобы тележка убила их. Это иллюстрирует общую проблему в этике.

Так как же умная машина решает проблему тележки?

Это не так. Несмотря на то, что он очень иллюстративен, он также далек от реалистичной проблемы. Филиппа Фут разработала задачу о тележке как остроумный мысленный эксперимент. Однако решение мысленного эксперимента и решение проблемы реального мира не равнозначны. На самом деле у нас почти всегда больше вариантов, чем два, и это все меняет.

Контекст — король

Итак, какую основу мы используем для искусственного интеллекта, чтобы научиться решать этические проблемы? Какой источник этики мы используем? Что ж, искусственный интеллект на самом деле знает только то, чему мы его учим, как ребенка. Если мы не научим его этике, он не сможет представить этические решения.

Прежде чем я перейду к возможному ответу, я хочу недвусмысленно заявить, что я думаю, что в данный момент мы должны иметь человека в процессе принятия решений вместо искусственного интеллекта. Это означает, что искусственный интеллект должен только давать советы, а не принимать решения напрямую, пока мы не продвинемся дальше в их развитии.

Ребенок может научиться этике там, где искусственный интеллект не может, потому что ребенок изучает контекст. В детстве мы постоянно учимся последствиям наших действий. мы плачем, мы получаем молоко; мы падаем, нам больно; мы тыкаем другого ребенка, они тыкают в ответ.

Это простое постепенное обучение создает сложную структуру контекстуального понимания по мере того, как мы добавляем слой за слоем опыт, день за днем. Иными словами: те, кто делает одно и то же каждый день, добавят мало контекста, в то время как те, кому нравятся разнообразные эксплойты, строят эту контекстную карту быстрее.

Как наш вид относится к другим видам? Чему нас учит наша национальная культура? Каким традициям нас учат наши этнические культуры? Какие правила были в нашей семье? Какие личностные черты возникли в результате всех наших влияний?

Эти слои контекста влияют на ситуации, в которых мы оказываемся каждый день, и влияют на решения, которые мы принимаем, чтобы пройти через эти приключения.

Нам нужно научить искусственный интеллект понимать как контекст, так и вред. Точно так же, как мы обучаем человека распознавать собаку, нам нужно, чтобы он распознавал сложное взаимодействие культурных слоев, например, считалась ли эта собака домашним животным, угрозой или едой. Возможно, у нас еще нет вычислительной мощности для этого; однако мы можем начать закладывать основу и создавать набор данных.

Стакан наполовину полон или наполовину пуст

Инженеры, специалисты по этике и специалисты по данным начали инновационную работу по измерению влияния решений искусственного интеллекта. Многие используют деньги для измерения ценности этих решений с помощью алгоритмов. Они измеряют «ущерб» как сумму денег, потерянную в случае принятия решения. Если оставить в стороне спорные дебаты о том, прямо пропорциональна ли денежная выгода позитивному принятию решений людьми, это также представляет ту же проблему создания произвольной линии, которая гласит: «выше это хорошее решение, а ниже это плохое решение». Как и в случае с тележкой, она создает ложную простоту для ответа на сложный вопрос.

Все исследования и усилия сталкивались с проблемой бинарного выбора или в первую очередь стремились к отрицательному результату.

Человеческое состояние ума

Итак, мы здесь, как мы решим это? Я начал задаваться вопросом, сможем ли мы найти измеримые положительные результаты. Чтобы исследовать это, я возродил старую модель, которую создал 15 лет назад, когда хотел измерить позитивность новостей.

Я смотрел на новости как на шкалу позитивности (валентности) по нескольким атрибутам. Если эти атрибуты увеличились в результате чтения новости, это увеличило валентность; если положительные атрибуты уменьшились, это уменьшило валентность. Я использовал эти шесть атрибутов: красота, здоровье, богатство, эффективность, эмпатия и знания (я могу написать целый отдельный пост о том, как измерить «красоту»).

Что, если бы мы могли приписать результаты искусственного интеллекта по шкале для каждого из этих измерений? Искусственный интеллект группирует связанную информацию вместе в соответствии со сложными слоями алгоритмического анализа. Таким образом, мы будем знать, что следует избегать всего, что находится внутри одного конкретного кластера, и все, что находится в другом кластере, будет в порядке.

Это будет шестимерная тепловая карта с достаточно размытым краем, чтобы избежать попадания решений в ловушку простоты проблемы тележки. В нем достаточно сложности в сочетании с четко определенным количественным подходом, чтобы избежать ловушек проблемы тележки.

Человечество

Мы еще не смогли проверить эту гипотезу в модели Сеша, так как нам еще предстоит проделать большую работу, чтобы лучше понять:

  • Как измерить эти атрибуты;
  • как поместить их в относительный контекст;
  • как обучить подмодель возвращать решение; и самое важное,
  • как справиться с последствиями искусственного интеллекта, говорящего человеку: «Извини, я не могу этого сделать, Дэйв».

Помимо обучения искусственного интеллекта, нам нужны данные. По мере взросления ему необходимо понимать контекст — то, чему искусственный интеллект Сеша уже начал учиться, — и в этом контексте ему необходимо видеть историческое влияние решений и их значимость. Создание этого набора данных будет непростым, но нам нужно, чтобы он привел человечество к нашему искусственному интеллекту.

Читать часть I: Как создать этичный ИИ, часть I: правда

Читать часть II: Создание этичного ИИ, часть II: Эмпатия

От теории к практике

Я нахожу ироничным в этих дебатах, что мы настаиваем на том, что искусственный интеллект должен соответствовать очень высоким этическим стандартам, иначе мы навредим человечеству, но эти стандарты не отражают того, как мы судим о людях.

Существует более 100 групп, выступающих за то, чтобы искусственный интеллект придерживался высоких стандартов прозрачности, непредвзятости, неприятия риска, явной долгосрочной выгоды, безопасности и сотрудничества. Они представляют собой твердые цели, к которым стремятся все этические команды машинного обучения.

На момент написания Washington Post насчитала 20 055 ложных или вводящих в заблуждение заявлений нынешнего обитателя Белого дома за 1 267 дней с момента его вступления в должность. Они изучили его публику, записали выступления и сравнили их с фактами, так что этот анализ не зависит от политических пристрастий.

Несмотря на воздействие, реальных последствий для человека, причиняющего этот вред, пока не наступило. Но как только с искусственным интеллектом что-то идет не так, СМИ взрываются, и вся логика вылетает из окна.

Почему мы предъявляем к искусственному интеллекту более высокие стандарты, чем наши лидеры?

Возможно, ответ на этот вопрос выходит за рамки статьи, но мы, безусловно, можем начать этот разговор.

Тем временем мы научимся использовать это несоответствие в качестве карты для лучшего, более этичного искусственного интеллекта.

#кауриДжей