Нужно ли дегуманизировать искусственный интеллект?

Интервью с ведущим экспертом в области ИИ Джоанной Брайсон о чрезмерной антропоморфизации ИИ, предвзятости и проектировании системы для безопасного ИИ.

«Решения принимает не ИИ. Именно люди решают возложить ответственность за принятие решений на ИИ, и это то, что они затем контролируют ».

Джоанна - доцент кафедры искусственного интеллекта Батского университета и филиал Принстонского университета. Она работала в различных областях, таких как естественный интеллект, культура, религия, а также интенсивно занималась проектированием интеллектуальных систем. Ее первый опыт работы с искусственным интеллектом относится к середине 80-х годов.

Нам посчастливилось поговорить с Джоанной в течение часа, чтобы узнать больше о ее опыте и точках зрения.

Не могли бы вы рассказать нам немного о своем прошлом? Как вы попали в ИИ?

«Мне действительно нравится программировать; Мне нравится тот факт, что вы можете создавать миры и их творческие аспекты. Приятно иметь обе стороны в моей работе ».

Моя первая степень - поведенческая наука, разновидность доклинической психологии. Это было в Чикагском университете, и это была степень гуманитарных наук, объединенная всеми факультетами социальных наук. Это то, что меня действительно волновало, я хотел понять интеллект животных, но, поскольку люди тоже довольно интересные животные, я смотрел на все эти вещи. В то же время я был действительно хорошим программистом. Я думаю, что на самом деле это было консервативное решение с моей стороны - делать то, что я знал, что у меня необычайно хороши, и сочетать это с тем, что меня действительно интересовало.

Часто люди очеловечивают искусственный интеллект, который противоречит вашей точке зрения, поскольку вы подчеркиваете, что искусственный интеллект есть и всегда будет чем-то совершенно отличным от человеческого интеллекта…

Да, есть два принципиальных отличия.

Во-первых, искусственный интеллект по определению является артефактом. Что-то, что мы разработали намеренно, и даже если мы решим создать это, время от времени бросая кости, это не уменьшает нашу ответственность.

Другое фундаментальное отличие состоит в том, что мы пока не создаем его путем клонирования. Все, что я говорю, неприменимо к клонированию, биологической инженерии и тому подобному. Я просто говорю о том, что когда вы строите систему из проводов и кремния, феноменологически вы никогда не получите того же самого. Вы никогда не получите что-то настолько близкое нам, как корова, крыса или, возможно, даже плодовая муха, потому что они имеют гораздо больше сходства с точки зрения архитектуры и с точки зрения обработки информации, того, как они взаимодействуют с миром, в котором мы находимся, чем что-либо которые мы построили из проводов и кремния.

Мы едим животных; мы их травим. Я как раз читал об отравлении крыс в Вашингтоне, округ Колумбия, потому что, по всей видимости, это возрождение. Мы делаем все возможное с животными, и некоторые люди думают, что вы не должны этого делать, но дело в том, что, когда мы даже не можем решить, как правильно обращаться с крысами и мышами, зачем нам теперь возвращаться в другом направлении?

Зачем нам разрабатывать что-то, что требует такой же защиты, как крысы и хорошее?

ИИ - это то, что мы создали, и пока мы создаем то, что мы можем поддерживать, то, за что мы можем нести ответственность, у нас никогда не будет чего-то, что испытывает стресс, боль и подобные вещи так же систематически, как люди. Это было бы действительно плохой идеей.

Теперь вы можете построить робота и поместить в него бомбу. Вы можете поставить датчик и часы и сказать: хорошо, если я не видел другого человека пять минут, я взорву себя. Вы могли бы это сделать, и вы могли бы сказать, что это даже хуже, чем быть человеком, потому что, когда мы попадаем в одиночное заключение, для нас это пытка, но мы выживаем, пока этот робот взрывается через пять минут, а робот - нет. собирается заботиться. Это отдельная часть. Это не тот опыт одиночного заключения, который есть у человека.

В то время как мы чрезмерно антропоморфизируемся, мы в основном позволяем людям эксплуатировать себя. Например, я ненавижу тот факт, что люди говорят об умных динамиках, когда это умные микрофоны.

Как бы вы их назвали?

Вы знаете 1984 год? Один из моих друзей Джейсон Ноубл сказал, что мы должны называть их телеэкранами.

Я бы назвал их персональными цифровыми помощниками, что мы привыкли называть чем-то вроде смартфона. Первые смартфоны не были подключены к сети, но мы просто записывали на них информацию.

Дело в том, что у вас есть персональный цифровой помощник, который не является личным, потому что вы не знаете, как часто он используется другими людьми, и я очень надеюсь, что одна из вещей, в которых мы преуспеваем (я вижу некоторые признаки об этом) заставляет людей думать, что Интернет вещей - хорошая идея.

Я был на заседании Европейской комиссии в Софии, цифровая ассамблея, и восточноевропейские политики полностью это поняли. Объединение мира воедино означает, что вы позволяете хакеру по соседству проникнуть в мир, и поэтому вам нужно быть очень осторожным в том, как вы проектируете вещи. Если у вас была одна программа, за которую отвечала, например электросеть, тогда она становится единственной точкой, которую можно скомпрометировать, либо взломав ее напрямую, либо поняв, как она работает, а затем как бы эксплуатируя ее, перемещаясь по ней. Вы бы предпочли гетерогенную систему.

Еще одна важная вещь - это то, что вся наша культура и все наши концепции, такие как справедливость, наказание и ответственность, - это то, что мы разработали, чтобы поддерживать жизнь нашего вида. Это не вещи, которые просто существуют в этом мире; это инновации, которые мы используем, и мы постоянно их обновляем.

Я не могу поверить, сколько людей думают, что справедливость - это естественное состояние мира. В прошлом году у меня вышла статья, в которой было показано, что сексизм и расизм можно найти в любом искусственном интеллекте, обученном обычному языку. Некоторые говорят: просто добавьте случайный шум.

Добавление случайного шума ничего не исправляет, оно просто уменьшает сигнал. Оказывается, он снова превращается в энтропию, но жизнь - это не энтропия. Энтропия - противоположность жизни. Жизнь - это структура и порядок, например, справедливость - это наша постоянная попытка сохранить координацию жизни таким образом, чтобы мы все могли получить пользу. Справедливость - это неестественный идеал. Люди не рождаются одного роста, одной силы, от одних и тех же родителей и одного пола, все мы очень сильно различаемся физически, а ментальное является частью физического расширения.

Мы разные, и тогда справедливость - это то, как мы справляемся с этими различиями наилучшим образом для общества в целом и представляем собой постоянно меняющийся набор компромиссов, которые мы идем.

Что нам нужно сделать в следующие пять-десять лет, чтобы убедиться, что мы разрабатываем безопасный ИИ, расширяющий наши возможности? ИИ принимает на себя множество решений, и у всех нас разные ценности и мы принадлежим к разным культурам. Как мы можем обеспечить это при разработке ИИ?

«Искусственный интеллект - это просто технология, которую мы можем использовать плохо или хорошо»

Решения принимает не ИИ. Именно люди решают возложить ответственность за принятие решений на ИИ, и это то, что они затем контролируют. Они могут изменять ИИ и принимать решения.

Это не ИИ; мы ведем переговоры не с другим видом и не с другой страной. Скорее важно понимать, что искусственный интеллект - это то, что у нас есть давно; В течение десятилетий мы использовали цифровые компьютеры, и это один из инструментов в нашем арсенале, и нам нужно получить четкое представление об этом. Нам нужно начать об этом говорить.

Опять же, это одна из огромных опасностей его антропоморфизации, вы буквально получаете умных, благонамеренных людей, которые сидят там, пытаясь защитить права ИИ или действительно хотят построить это будущее, где ИИ вытеснит нас, а они нет. осознание того, что, во-первых, это невероятно технологически неправдоподобно, но, во-вторых, как вы сказали бы, в ближайшие тридцать лет или около того, это почти наверняка приведет к гибели и уничтожению большего числа людей. Правительство, корпорации или богатые люди будут рассматривать людей как неважные аспекты, которым они не нужны как часть своего плана.

ИИ используется в качестве щита, который в буквальном смысле представляет собой подставную компанию, позволяющую людям делать то, что они действительно хотят, и отвлекать внимание от некоторых машин.

Искусственный интеллект - это просто технология, которую мы можем использовать плохо или хорошо. Нам нужно ответить на те же вопросы, что и в отношении других потенциально вредных технологий; например как правильно хранить химическое оружие? Как правильно развертывать ядерную энергетику, не следует ли вообще не развертывать ядерную энергетику или, может быть, это действительно важно с экологической точки зрения? Подобные решения - это те же решения, которые нам необходимо принимать, когда мы говорим не только об искусственном интеллекте, но и о конфиденциальности данных и кибербезопасности. Это относится к ИКТ в целом. ИИ - всего лишь один из инструментов в арсенале.

Мы взаимодействуем с ИИ более личным образом. А как насчет эмоциональных связей?

Даже если у вас есть робот, который действительно ваш лучший друг; к которому вы безмерно эмоционально привязаны, вы можете потребовать, чтобы у этого робота была резервная копия. Тогда вам не о чем беспокоиться, например, если случится пожар или что-то в этом роде. Вы просто оставляете его, а затем покупаете другого робота и получаете резервную копию.

Даже если вы решите создать эмоциональную связь с машиной, а не с людьми, которые действительно могут помочь вам в долгосрочной перспективе. Это ваше личное решение, но вы можете потребовать, чтобы у вас не было такого воздействия, и я думаю, что это реальная проблема.

Когда у нас было наводнение в Новом Орлеане, нужно было решить, сколько ресурсов и затрат вы потратите, чтобы убедиться, что с собаками и кошками все в порядке, но собаки и кошки делают вещи, как люди, они делают эмоционально, физически, очень подобные вещи, но проблема в том, что у нас очень много ресурсов. Как нам убедиться, что не осталось детей, прежде чем мы начнем спасать собак? Также семьи не приедут без собак. То же самое произошло с Сэнди здесь, на восточном побережье; животные остались позади, и они голодали, и людей это очень беспокоило.

Почему мы должны ставить себя в такую ​​ситуацию с технологией, которая разработана таким образом, чтобы гарантировать, что у нас не будет такого рода проблем?

Зная об опасностях, связанных с искусственным интеллектом, расскажите нам о своей докторской степени. тема начала 90-х и как это связано с безопасностью искусственного интеллекта?

«Ошибка, которую совершают такие люди, как Ник Бостром, заключается в том, что если вы действительно создаете систему, у нее нет шансов, что она превратит мир в скрепки ... если система вообще автономна, она автономна на уровне ваших приоритетов, которые гарантированы быть в нем… »

Одна из вещей, о которой люди говорили, даже когда я был студентом, была модульность. Например, когда вы ведете машину, вы в некотором роде другой человек, чем когда вы пешеход, потому что у вас такое другое отношение. Кажется, что у вас есть эти отдельные части вашего разума, а не все вы одна большая вещь.

Об этом тогда говорили даже философы. Когда я профессионально программировал между моей степенью бакалавра и моей докторской степенью. люди начали понимать, что, возможно, вам не нужен один большой мэйнфрейм, возможно, вы могли бы иметь несколько разных компьютеров и создавать как сеть. Сейчас это явно называется облаком, но в то время это была большая вещь, когда люди говорили: «О да, клиенты, сервер, архитектура… может быть, мы сможем получить некоторые вычисления, выполняющие различные специализированные задачи на основе оборудования, которое было там».

Затем, когда я получил степень магистра и увидел, чем занимался Родни Брукс и множество других людей, пока я был в Эдинбурге, они были очень взволнованы его работой. Это называлось дизайном, основанным на поведении, и идея заключалась в том, чтобы вместо того, чтобы пытаться создать что-то столь же сложное, как человек, вы строите относительно простые модули, и каждый модуль воспринимал то, что ему нужно было воспринимать, чтобы делать то, что он нужно было сделать.

Behavior-Oriented Design (BOD) - это методология разработки, которую я разработал во время своей докторской диссертации для создания сложных, законченных агентов, таких как персонажи виртуальной реальности, автономные роботы, интеллектуальные наставники или интеллектуальные среды. Агенты BOD являются модульными, но не многоагентными системами.

Еще я понял, что вам нужна не только память, чтобы иметь интеллект, но и то, что это ядро ​​модуля. Одна из вещей, которые определяют, когда вам нужен модуль, - это какая информация вам нужна для восприятия и действий. Другой компонент, который вошел в игровую индустрию, заключался в том, как проводить арбитраж между этими модулями.

Когда вы что-то разбираете на части, одна из проблем заключается в том, как собрать это снова, вам нужно согласованное поведение. Хотя есть определенные вещи, которые вы можете делать автономно, например, рефлекс на избежание огня, довольно много из того, что должен делать любой организм. Есть определенные виды ресурсов, такие как ваше физическое местоположение, которые полностью определяются всеми модулями. Именно тогда я создал то, что сейчас называется деревьями поведения. Мы назвали это P.O.S.H. (Иерархический выбор действий с параллельным корнем, упорядоченный скользящий стек).

Основная идея заключалась в том, что вы хотите использовать объектно-ориентированный дизайн (стандартная разработка программного обеспечения), но единственное, что вам действительно нужно сделать по-другому для ИИ, - это сказать, каковы приоритеты в системе, потому что система ИИ является проактивной. Это то, что на самом деле должно распознавать контекст, в котором будет действовать, и действительно, оно должно действовать по гомеостатическим причинам. Он должен действовать, потому что знает, что ему нужно что-то делать, у него есть цель.

У меня были документы по окончании моей докторской степени. Говоря о том, насколько это действительно важно для безопасного ИИ, если у вас есть обучение только в модулях, есть предел тому, насколько злой или чем бы то ни было может стать система ИИ.

Меня не особо беспокоил злой ИИ, но я беспокоился о том, что не смогу гарантировать, например, что он знает, как убежать от огня или чего-то еще.

Итак, вы должны были иметь определенные высокие приоритеты в отношении обеспечения относительно детерминированной системы. Даже если вы используете машинное обучение, его также можно использовать детерминированным образом, потому что у него могут быть границы, вокруг которых вы не позволяете системе обновлять свое обучение. Если похоже, что он не будет соответствовать рекомендациям по производительности, вы можете построить детерминированную ограду вокруг системы, которая пытается улучшить один аспект того, что она делает.

Ошибка, которую совершают такие люди, как Ник Бостром, заключается в том, что если вы действительно создаете систему, вероятность того, что она превратит мир в скрепки, равна нулю. Его беспокоит соответствие между приоритетами высокого уровня и тем, что происходит с более низкими уровнями, но вы не даете полную автономию нижним уровням. Если система вообще автономна, она автономна на уровне ваших приоритетов, которые гарантированно присутствуют в ней, и их частей, которые стремятся узнать, как лучше всего что-то делать. Если остальная часть системы, которая обычно включает в себя любой ИИ, людей, замечает, что нет никакого повторного потребления металла или чего-то еще, она отключит эту часть системы.

Вы можете привести пример, чтобы проиллюстрировать это? Вы говорите, что вместо одной системы, которая может работать автономно, вы проектируете модульную систему с различными компонентами, которые контролируют друг друга и, следовательно, систему…

Мы все хотим жить в обществе, которое, по крайней мере, достаточно стабильно, чтобы мы могли планировать компанию, семью или что-то еще.

Один из примеров - биткойн. Первоначально никто не ожидал, что Биткойн будет потреблять столько энергии, сколько имеет, но теперь все пытаются выяснить, как это регулировать. Это в некоторой степени проблема, которая саморегулируется, потому что люди не могут позволить себе такую ​​власть.

Электроэнергия стоит дорого, поэтому до тех пор, пока не будет бесконечного значения, которое будет произвольно присвоено схеме Понци, то есть Биткойну, будет существовать ограничение на то, сколько энергии она сможет купить.

Однако кажется, что есть и другие регулирующие силы, которые могут прийти любым путем и сказать: вы, ребята, не платите свою справедливую долю за ущерб окружающей среде, который вы наносите, и тогда они могут быть вынуждены фактически, и, возможно, не только им, но и всей окружающей среде, все потребители энергии могут внезапно начать обнаруживать себя в результате разговора, который был о биткойнах, фактически платя более подходящую сумму денег за инфраструктуру, которую они разрушают, глобальную инфраструктуру.

Дело в том, что вы можете потерпеть неудачу, но это потому, что вовлечены люди. Это называется распознаванием ошибок. Это осознание того, что не всегда все будет хорошо. Следовательно, основная вещь, которую вы должны сделать при структурировании системы, - это убедиться, что вы создаете компоненты, которые проверяют наличие других компонентов. Фактически, это более простой способ построить мощную систему, поскольку у вас есть простые компоненты, которые обнаруживают, когда другие компоненты выходят из строя.

Я не утверждаю, что все работает так хорошо - это правда. Были очень хорошие примеры корпораций и различных других организаций, которые причинили миру огромный ущерб. Дело не в том, что мир совершенно безопасен и ничего не может произойти, а в том, что есть процессы, которым мы можем следовать, которые повышают вероятность того, что мы поймем эти процессы на раннем этапе и не позволим им нанести большой ущерб.

Это одна из вещей, над которой я сейчас много работаю - просто пытаюсь сообщить законодательным органам, что вы можете привлечь к ответственности людей, использующих искусственный интеллект.

Я также разговариваю с компаниями; Я только что говорил с Microsoft и Google две недели назад об этом, что это то, что, как я ожидаю, выйдет из строя.

Вы больше не собираетесь просто ссылаться на любую произвольную библиотеку программного обеспечения, которую вы загрузили из Интернета, и вы не знаете ее происхождения, и вы не знаете, кто ее взломал или что-то еще.

Скорее, вам нужно будет показать, какую версию программного обеспечения вы использовали, и какую версию библиотеки данных вы используете для обучения машинному обучению и каковы были ваши процедуры. Если у вас нет таких записей, вы не сможете доказать должную осмотрительность и будете привлечены к ответственности за любой ущерб, который вы или другие люди причинили вашему программному обеспечению.

Это не уникальный подход. Если вы посмотрите на такие вещи, как медицина или автомобильная промышленность, где уже есть хорошая практика в том, как они разрабатывают ИИ и документируют процесс, и у них есть множество ИИ. Все говорят о без водителя, но у каждого производителя автомобилей есть множество ИИ, пытающихся улучшить впечатления от вождения и сделать автомобиль более безопасным, и они уже задокументировали это, это не невозможно. Это даже не так сложно, и если вы будете осторожны с разработкой программного обеспечения, вам понадобится немного больше времени, чтобы выйти на рынок, но также намного проще поддерживать и расширять свой код.

Я думаю, нам нужно повзрослеть. Например, в архитектуре тогда вы могли просто построить здание в любом месте, где захотите, и это создавало бы разного рода хаос для движения в городах, а иногда здания просто обрушивались на людей и убивали их. Теперь у вас есть студенты, которые получают степень в области архитектуры, чтобы научиться разговаривать с людьми, которые занимаются планированием города, и они собираются получить лицензию и узнать, как получить лицензию, а здания будут проверены.

Я думаю, что мы вполне можем оказаться в таком месте, и это не означает конец IP. Медицина строго регулируется, тщательно проверяется, но у нее в десять раз больше интеллектуальной собственности, чем у программного обеспечения, технологической индустрии. Я думаю, мы просто собираемся определить процессы, с помощью которых мы развиваем вещи. Все меняется, и это хорошо для нашего общества.

Мы все хотим жить в обществе, которое, по крайней мере, достаточно стабильно, чтобы мы могли планировать компанию, семью или что-то еще.

Если вы хотите получать новости о наших вызовах искусственного интеллекта, получать интервью с экспертами и практические советы по развитию своих навыков искусственного интеллекта, подпишитесь на нашу ежемесячную новостную рассылку.

Мы также находимся в Facebook, LinkedIn и Twitter.