Как мы будем создавать этичный ИИ, если мы сами «ужасны» в этике?

Были опубликованы десятки статей и новостей о необходимости этики в ИИ или этического ИИ. Эта (очевидно, совершенно новая) проблема возникает из-за ряда причин, в том числе озабоченности общественности по поводу распознавания лиц, использования автоматизированного принятия решений и продолжающегося интереса общественности к темной стороне искусственного интеллекта (см. Черное зеркало). Было несколько очень интересных, тонких и вдумчивых дискуссий о том, как привнести этику (или, по крайней мере, как уменьшить предвзятость) в ИИ. Также было гораздо больше горячих дублей и совершенно неосведомленных говорящих голов.

Отчасти проблема в том, что мы не ведем одинаковый разговор. Как мы объясняли ранее, понимание ИИ и сложнее, и намного проще, чем вы думаете, особенно если вы понимаете, что ИИ - это один из тех терминов, которые используются вместо реального понимания предмета. Другими словами, это модное слово: вы можете использовать его, казалось бы, даже не подозревая, что оно на самом деле означает. То же самое и с Облаком. Когда вы слышите, как кто-то говорит мы загрузили все ваши данные в« облако », на самом деле они говорят только мы загрузили все ваши данные на чужие компьютеры. Вот и все. Ни настоящих облаков, ни летающих компьютеров, ни серверной на Беспине (к сожалению). Блокчейн тоже. Это просто распределенная книга. Вы записываете транзакции, и транзакции записываются, и… и все.

Нельзя сказать, что ИИ не обладает невероятным потенциалом или что это дым и зеркала. Напротив, мы твердо верим в использование машинного обучения (которое является движущей силой «мышления», лежащего в основе ИИ). Мы просто думаем, что важно честно, реалистично и прямо рассказывать, почему мы используем AI / ML, и что мы имеем в виду, когда говорим «этика». Чтобы принять осмысленное решение, нужно нечто большее, чем просто модные словечки, поэтому мы представляем несколько проблем, которые стоит рассмотреть, прежде чем углубляться в ИИ или обсуждать, что значит сделать его этичным.

1. Тот, кто решит, что ваша ИИ «этична», закодирует их предубеждения

Это просто неизбежно. Люди, по большей части, неспособны признать, насколько они предвзяты, потому что это требует от нас изучения нашего поведения вне нашей собственной точки зрения, что-то вроде вытаскивания себя из зыбучих песков. Однако не путайте предвзятость с фанатизмом: большинство предубеждений на самом деле являются просто ошибками в логике или сокращенном мышлении, а не явной враждебностью по отношению к определенной группе. Возьмем, к примеру, предвзятость выживаемости, которая необоснованно сравнивает успешные или выживающие модели со средними историческими показателями, как если бы они были нормальными, игнорируя тот факт, что сам факт их выживания или успеха может означать, что они ненормальные.

В искусственном интеллекте предвзятое отношение к выживанию может привести к тому, что ваш ИИ применит своего рода Горацио Алджера, инициирующую модель успеха, в которой люди с лучшими финансовыми данными считаются лучшими кандидатами. "Это меритократично!" Вы могли бы сказать. Возможно. Но это также почти наверняка приведет к усилению существующих предубеждений в финансовом секторе, который непропорционально (и излишне) понижает рейтинг людей по признаку расы, пола или множества других причин (многие из которых являются защищенными статусами в соответствии с законом). . ИИ не узнает, что делает что-то не так, потому что вы этого не сказали, а также потому, что вы можете этого даже не знать.

Это означает, что алгоритм, лежащий в основе вашего инструмента искусственного интеллекта, не будет включать требования Закона о гражданских правах 1964 года или Европейской конвенции о правах человека, если вы не научите его, но вы не можете включить требования этих законов в свой алгоритм, если люди, создающие ваш алгоритм, знают об этих законах, но эти люди не могут знать об этих законах, если вы не убедитесь, что они это делают, что означает, что они кодируют ваше / свое собственное невежество / предвзятость в алгоритм, что, в свою очередь, приводит к , это название этого подраздела.

2. Нельзя быть этичным и «жутким» одновременно

Этическое использование ИИ также имеет тенденцию объединять средства с целями. Но ИИ - это просто инструмент, а не независимый мыслитель, которому требуется этос для управления поведением (во всяком случае, пока). Итак, есть два предварительных вопроса: этичное ли использование ИИ и используется ли он для этических целей. Это вопрос, который редко задают в Кремниевой долине: да, конечно, вы могли сделать это, но должны?

Рассмотрим управляемую искусственным интеллектом технологию распознавания лиц, которая определяет во время собеседований ссуды микролицевые движения для определения честности, интеллекта и / или кредитоспособности соискателей. Или другая система ссуд, которая исследует платформы социальных сетей, чтобы определить, есть ли у соискателя такие друзья, которые выплачивают свои ссуды - обычно это хороший показатель, «вернут ли они ссуду сами. Эти системы полагаются на невероятно сложные алгоритмы и технологии, чтобы выполнить свое обещание: более глубокое понимание будущего человеческого поведения. Они также начинают быстро сворачивать в область жуткого.

Человеческая интуиция - мощный инструмент, и мы часто полагаемся на нее, когда пытаемся объяснить, как распознать, когда предлагаемая обработка данных меняется от о, вау к о нет. Разграничение никогда не бывает совершенно четким, но где-то между использованием ИИ для более точной и ранней диагностики нейродегенеративных заболеваний и использованием ИИ для создания все более сложных дипфейк-видео мы пересекаем границу. Помните: ИИ абсолютно безразличен к морали, он действует только в рамках заданных параметров. Алгоритмы не ведут себя жутко, потому что им казалось это нравится, потому что, несмотря на то, что вы слышали, ИИ по-прежнему не может ничего почувствовать или захотеть.

Это означает, что любая этика ИИ должна быть своего рода метаэтикой использования ИИ. Это будет чрезвычайно трудной задачей, потому что для достижения успеха потребуется с самого начала довольно широко распространенное соглашение о целесообразности ограничений. Рассмотрим споры о клонировании в конце 1990-х годов. Хотя велись дебаты об этике клонирования овцы Долли, по общему мнению, о клонировании человека не могло быть и речи. Сегодня аналогом может быть то, что, хотя автоматизированные финансовые решения могут иметь сомнительные аспекты, передача рассмотрения уголовных дел судье AI - это слишком далеко. Кроме того, вы знаете, что суды Эстонии уже начали это делать, и есть признаки того, что скоро американские суды тоже это сделают.

Дело не в том, чтобы принизить представление о том, что ИИ будет полезен во множестве областей - это будет. Дело в том, чтобы выяснить, когда использование ИИ выходит за рамки полезного и превращается в догматическое или, что еще хуже, абсурдное. Большая часть этой задачи состоит в том, чтобы признать, что не может быть этичного способа делать что-то неэтичное. Ответить на этот вопрос более высокого порядка нельзя с помощью ИИ, это можно сделать только с помощью критического мышления людей.

3. Есть непредвиденные последствия (или «принцип Оби-Вана»)

Этический ИИ также должен учитывать неизвестное и предвидеть неожиданное, даже если оно становится для нас все более непознаваемым. Это не то же самое, что предсказание неизвестного или неожиданного, а скорее означает гибкость для решения проблемы, когда она возникает. Представьте, что вы находитесь в городе, в котором никогда не бывали, и не говорите на его языке, но вам нужно найти больницу. Что бы вы сделали? Может быть, вы спросите незнакомца и жестикулируете в сторону своей травмы («ой» довольно универсально »), или, может быть, вы бы поискали полицейского, или, может быть, вы даже крикнули бы« помогите »на любых языках, которые знали в надеется, что кто-то поймет. Такая пластичность мышления - вот что характеризует человеческие реакции на неизвестное: мы импровизируем, но делаем это так, чтобы опираться на наше понимание человеческой природы, чтобы максимизировать шансы на успех.

Что-то неизвестное и непредсказуемое иногда называют unk-unk, сокращенно от unknown unknown. Это происходит из социологической концепции под названием окно Джохари, но вы, вероятно, знаете это из пресс-конференции Дональда Рамсфельда, где он говорил об известных-известных. Люди могут иногда очень неправильно реагировать на унк-унков (что, по сути, является предпосылкой ET и The Day the Earth Stood Still), но мы все еще очень, намного лучше, чем AI. Это потому, что ИИ, как мы объяснили, на самом деле все еще представляет собой набор вычислений, выполняемых на заданном наборе обучающих данных. Чем больше данных у ИИ, тем лучше он способен выявлять закономерности, но это никоим образом не приравнивается к способности извлекать значение из данных.

Прекрасный пример? IBM Watson играет на Jeopardy. Было ли невероятно видеть компьютер лучше Брэда Раттера и КенДжена? Конечно. Но причина, по которой Watson был способна правильно ответить на такое количество вопросов, заключалась в том, что он был обучен на 200 миллионов страниц потенциальных вопросов и ответов, на которые можно было бы опираться, когда ему задавали вопрос. Опять же, тот факт, что Watson мог анализировать человеческий язык, чтобы ответить на эти вопросы, был немного удивительным, и, да, человеческое обучение также частично является процессом хранения данных и их повторного вызова. Но без данных для обучения Watson не смог бы ответить на вопросы (это очевидно: вы не можете ответить на то, чего не знаете).

Таким образом, ИИ может только проанализировать свои наборы обучающих данных и дать наилучшую оценку правильного ответа. Когда будет представлено что-то совершенно новое, оно останется без необходимых данных для выбора, что приведет к некоторым странным возможным ответам и результатам. Это та же самая причина, по которой чат-бот (который, как компьютерная программа, не может быть сексистским, расистским или каким-либо другим фанатиком) может извергать невероятно оскорбительные заявления в течение нескольких часов после взаимодействия с людьми: чему бы мы его ни учили, он научится. В качестве полезного графического напоминания вот вам ностальгия по Gen-X:

Это касается проблем, возникающих, когда ИИ сталкивается с неожиданными или неконтролируемыми данными обучения. Но как насчет проблемы, связанной со следствием, когда мы сталкиваемся с неизвестным в ИИ? Если вы потратите какое-то время на изучение того, как работают платформы ИИ, вы снова и снова столкнетесь с одной и той же проблемой: системы ИИ принимают необъяснимые решения или разрабатывают совершенно незапланированные языки и операционную деятельность. Это крайняя ситуация «черного ящика», в которой результаты операции полностью не зависят от принятия решений, в результате которых они были приняты.

Усилия Facebook по созданию искусственного интеллекта являются хорошим примером. В 2017 году лаборатория по исследованию искусственного интеллекта Facebook (забавно, FAIR) позволила своим чат-ботам разговаривать и вести переговоры друг с другом, чтобы улучшить навыки естественного языка и умение торговаться. Результат? Чат-боты за несколько часов перестали просто разговаривать Здравствуйте, я хотел бы купить пять виджетов, которые следуют сценариям обучающих данных, которые Facebook предоставил следующим:

Боб: я могу все остальное. . . . . . . . . . . . . .
Алиса: баллы имеют ноль мне мне мне мне мне мне мне мне ко мне
Боб: ты и все еще . . . . . . . . . . . . . .
Алиса: шары имеют значение для меня для меня для меня для меня для меня для меня для меня
Боб: я могу iii все остальное . . . . . . . . . . . . . .
Алиса: шары имеют значение для меня для меня для меня для меня для меня для меня
Боб: i. . . . . . . . . . . . . . . . . . .
Алиса: шары имеют ноль мне мне мне мне мне мне мне ко мне мне
Боб: ты иииии все еще . . . . . . . . . . . . . .
Алиса: шары имеют 0 мне мне мне мне мне мне мне мне ко мне
Боб: ты iii все еще . . . . . . . . . . . . . .
Алиса: баллы имеют ноль мне мне мне мне мне мне мне мне мне до

Странно, я знаю. Но поразительной особенностью приведенного выше отрывка является то, что, согласно анализу Facebook, он представляет собой часов нормального человеческого разговора. Другими словами, каждая буква, пробел и точка представляют собой целую цепочку разговора, на которую человеку потребовалось бы гораздо больше времени. Интересный факт, но он также представляет собой существенную проблему с точки зрения аудита, контроля и человека. Если мы не можем распознать или расшифровать язык, который используют платформы ИИ, когда они общаются друг с другом или анализируют данные для принятия решения, как мы можем понять, приняли ли они ценное, разумное или этичное решение?

GDPR, как мы уже неоднократно обсуждали, пытается обуздать такого рода излишества, гарантируя право физических лиц (а именно людей, а не корпораций) возражать против автоматизированных решений, чтобы знать, есть ли платформы искусственного интеллекта принимают решения и требуют вмешательства человека в этот процесс. Но любая честная оценка статьи 22 предполагает, что здесь есть довольно простой обходной путь: программирование ИИ, чтобы он давал приемлемый, основанный на предлоге ответ на вопросы об основании для решения. Это не должно вызывать удивления, потому что люди делают это постоянно.

Итак, мы подходим к центральной проблеме неизбежной непрозрачности искусственного интеллекта: он реагирует способами, которые мы не всегда можем ожидать, чтобы принимать решения, которые мы не всегда можем понять. Мы почти с математической достоверностью столкнемся с решениями или рассуждениями, которые выходят за рамки нормальной человеческой рациональности в процесс, управляемый 1) данными обучения, 2) врожденными предубеждениями, 3) неконтролируемым доступом к другим наборам данных с открытым исходным кодом. и 4) итеративный процесс машинного обучения. Это сочетание факторов, которые, независимо от наших усилий по контролю, учету или количественной оценке, будут выходить за рамки нашего понимания.

Подумайте об Оби-Ване Кеноби из «Звездных войн», как раз перед тем, как Вейдер убивает его. (Полагаю, спойлеры?). Он говорит Вейдеру:

Дело не в том, что Вейдер не понимает силы (он понимает) или сомневается в навыках Оби-Вана (он не знает). Дело в том, что Вейдер не может знать, что Кеноби станет чем-то совершенно новым и совершенно неожиданным: загадочным, унылым Призраком Силы. Когда люди сталкиваются с неизвестным, непознаваемым, непрозрачным, люди часто плохо реагируют; Иногда ИИ вообще не может ответить, молчит перед лицом неуверенности или, возможно, нащупывает аналог, которого нет. Это призрак в машине: неуверенность. Это призрак, которого мы будем преследовать, пока ИИ - и мы - не научимся грациозно противостоять неизвестному.

4. Сбор ценных и полезных данных о тренировках может создать порочный круг

В этике есть еще и практический элемент. Как мы уже упоминали, данные обучения чрезвычайно важны, потому что они позволяют процессу машинного обучения понимать и выявлять взаимосвязи и закономерности. Но сама эта зависимость от обучающих данных означает, что классические проблемы качества данных вступают в игру, когда ИИ принимает решения и делает выводы без участия человека и его указаний.

Плохое качество данных проявляется в различных формах, и каждая из них может нарушить или исказить решения ИИ. Вот всего два примера и некоторые проблемы, которые они поднимают:

Противоречивые данные

У вас есть данные из множества источников, и часто точки данных перекрываются друг с другом. Скажем, например, что у вас есть список адресов электронной почты клиентов через ваши собственные операции (хранящийся, например, в MailChimp), и вы также приобрели огромное количество точек данных у Dun & Bradstreet или другого крупномасштабного поставщика данных. Если вы имеете дело с определенной аудиторией, почти наверняка у вас будут дубликаты в двух наборах данных, и вы почти наверняка увидите ошибки, конфликты или противоречия между двумя наборами. Иногда это связано с тем, что субъекты данных сами предоставили различную информацию (например, они дали вам один почтовый адрес при регистрации учетной записи, но у D&B есть более старый адрес), а иногда - из-за простой ошибки ввода данных. В других случаях это связано с тем, что ярлыки для наборов данных не совпадают (например, в поле «Адрес» указано место жительства, а в D&B используются служебные адреса).

На самом деле не имеет значения, почему, потому что это неизбежно: данные не всегда будут совпадать, поэтому слияние двух наборов данных довольно часто менее ценно, чем сумма его частей. Когда вы предоставляете противоречивую информацию платформе ИИ, она должна решить, что имеет наибольший смысл, и довольно часто будет ошибаться. ИИ не предназначен для понимания парадоксов или иррациональности. Столкнувшись с противоречивыми данными, которые неизбежно попадают в наборы данных, ИИ ответит наиболее вероятным предположением, которое зачастую не лучше, чем то, что сделал бы человек.

Неполные или устаревшие данные

Еще одна очень распространенная проблема - набор данных, в котором отсутствует важная информация. Если вы когда-либо подавали заявку на ипотеку, вы знаете, насколько сложно собрать все необходимые документы, необходимые формы и подтверждающую информацию. Но это только передняя часть. А теперь представьте, что банк, выдавший вашу ссуду, продал ее другому банку (и, поверьте мне, они сделали). Если банк-закупщик так и не получил полный файл, или если некоторые документы были плохо отсканированы, или если некоторые документы были потеряны, банк мог не знать об этом в течение многих лет (и поверьте мне, они не получат). Теперь представьте, что банк обрабатывает имеющиеся у них данные с помощью алгоритма для выявления, классификации или переоценки профиля кредитного риска ипотекодержателей или, возможно, тех, кто желает получить HELOC на собственность, которой они владеют. AI мог сделать вывод, что отсутствующий файл является результатом человеческой ошибки со стороны банка, но вероятно ли, что банк научит свою систему по умолчанию возлагать ответственность за ошибки на банк? Скорее всего, не. Таким образом, алгоритм будет либо предполагать, что человек не предоставил то, что было необходимо, либо что человек не соответствует критериям, которые должны были быть указаны в документации.

Далеко за уши? Возможно. Но учитывая то, что мы знаем о том, как люди обрабатывают ссуды, предоставляют кредиты и устраняют риски определенного финансового профиля, в это трудно поверить. И помните, что не только финансовый сектор хочет использовать ИИ для принятия решений. Когда наборы данных неполны или устарели, платформы ИИ будут бороться с неизвестным и неполным одновременно. Это не может и не должно вызывать уверенности.

Что все это значит? Пойдем по логическому пути. Этический ИИ требует, чтобы обучающие данные были точными, полными, свежими и как можно более свободными от противоречий. Для сбора и обслуживания наборов данных, обладающих этими характеристиками, требуется протокол целостности данных, который включает системный надзор, регулярно обновляемые данные и механизм контроля качества для отсеивания неверных данных. Такой протокол целостности данных требует данных из новых, различных и недавних наборов данных, чтобы обеспечить точность и правильный тип доверительных интервалов. Эти новые наборы данных, в свою очередь, должны быть проверены и проверены, что означает, что необходимо еще больше данных. Таким образом, этический ИИ, в определенном смысле, требует массового сбора данных из множества источников на почти постоянной основе, чтобы работать так, как задумано - именно в этой ситуации возникло скопление данных капитализма слежки, что является основной причиной этого призыва. для этического ИИ в первую очередь.

Но предположим, что мы справляемся с предвзятостью, целями обработки, учли необходимую гибкость в нашей платформе ИИ и поддерживаем точность и актуальность данных. Этого достаточно, чтобы решить проблему «этического ИИ»? Полагаю, это зависит от того, как вы сформулируете вопрос. С одной стороны, до тех пор, пока система не заработает, от системы можно ожидать лишь очень многого, и в рамках параметров будут существовать достаточно этичные системы искусственного интеллекта, которые будут безопасны и желательны для развертывания. Вы могли бы практически исключить дорожно-транспортные происшествия, если бы ограничение скорости составляло 5 миль в час; мы решили пойти на риск увеличения смертности во имя эффективности. Это кажется неправильным, но вспомните, что без эффективного транспорта экономика рухнет. Итак, мы приняли решение, что на определенном уровне риски окупаются.

Вот почему мы не можем рассчитывать на создание искусственного интеллекта с закодированной этикой, который удовлетворит все обстоятельства: мы также не можем создать людей с таким этическим кодексом. Это не проблема, которую мы «решаем», это дилемма, с которой мы должны справляться каждый день. Мы можем и должны обсуждать, как импортировать значения в машинное обучение и устанавливать параметры и ограничения для наших все более сложных (и непрозрачных) решений, основанных на алгоритмах. Тем не менее, мы должны четко понимать одну вещь: «этический ИИ» - это всего лишь сокращение от «этичного использования ИИ людьми». Когда мы возлагаем бремя на какой-то неопределенный искусственный интеллект, легче отказаться от нашей ответственности и от наших собственных обязанностей. Но пока люди занимаются программированием, а люди ставят цели, в первую очередь нам нужно беспокоиться о нашей собственной этике.

Первоначально опубликовано на https://wardpllc.com 17 июня 2019 г.