Эта идея является частью проекта Faveeo 20 идей на 2020 год! Специальное издание бюллетеня идей в сотрудничестве с нашей сетью влиятельных лиц. С помощью этого проекта мы будем создавать правильные, направляющие идеи, которые будут информировать будущих лиц, принимающих решения, и распространяться среди новой аудитории. Давайте использовать наши совместные усилия, чтобы быть дальновидными и создавать продуманный, информативный контент, актуальный сейчас и в ближайшие 10 лет.

Подпишитесь на нашу замечательную рассылку, чтобы быть в курсе: http://bit.ly/2RftnQL

Эта идея в сотрудничестве с Романом Ямпольским, доцентом Университета Луисвилля. Роман является квалифицированным экспертом по теме #ИИ и часто выступает с докладами как на тему #ИИ, так и #кибербезопасность!

Автор: Роман Ямпольский Редактор: Рубен Драйблатт

С увеличением возможностей искусственного интеллекта за последнее десятилетие значительное число исследователей осознали важность создания не только дееспособных интеллектуальных систем, но и обеспечения их безопасности и защищенности (1). К сожалению, область безопасности ИИ очень молода, и исследователи все еще работают над выявлением основных проблем и ограничений.

Я хотел бы сосредоточиться на малопонятном понятии, известном как непредсказуемость интеллектуальных систем (2), которое ограничивает нашу способность понять влияние интеллектуальных систем, которые мы разрабатываем. Это создает множество проблем для проверки программного обеспечения и управления интеллектуальными системами, а также безопасности ИИ в целом.

Непредсказуемость ИИ лучше всего определить как нашу неспособность точно и последовательно предсказать, какие конкретные действия предпримет интеллектуальная система для достижения своих целей, даже если мы знаем конечные цели системы.

Непредсказуемость не означает, что статистический анализ лучше, чем случайный, невозможен; это просто указывает на общее ограничение того, насколько хорошо такие усилия могут быть выполнены, и особенно ярко выражено в передовых интеллектуальных системах (сверхразум) в новых областях, таких как создание новых лекарств или изменение геномов. На самом деле мы можем представить доказательство непредсказуемости таких сверхразумных систем.

Доказательство. Это доказательство от противного. Предположим, что непредсказуемость — это неправильно, и человек может точно предсказывать решения сверхразума. Это означает, что они могут принимать те же решения, что и сверхразум, что делает их такими же умными, как сверхразум, но это противоречие, поскольку сверхразум определяется как система, которая умнее любого человека. Это означает, что наше первоначальное предположение было ложным, а непредсказуемость не является ошибочной.

Низкий интеллект не может точно предсказать все решения более высокого интеллекта, концепция, известная как принцип Винджа (3). «Принцип Винджа подразумевает, что когда агент проектирует другого агента (или модифицирует свой собственный код), он должен одобрить дизайн другого агента, не зная точных будущих действий другого агента». (4)

«Вингеанская неопределенность» — это своеобразное эпистемическое состояние, в которое мы входим, когда рассматриваем достаточно разумные программы; в частности, мы становимся менее уверенными в том, что можем точно предсказать их действия, и более уверенными в конечном результате этих действий. (Обратите внимание, что это отвергает утверждение о том, что мы эпистемически беспомощны и ничего не можем знать о существах умнее нас самих.)». (4)

Непредсказуемость — интуитивно знакомое понятие. Обычно мы можем предсказать результаты общих физических процессов, не зная специфического поведения отдельных атомов, точно так же, как мы обычно можем предсказать общее поведение интеллектуальной системы, не зная конкретных промежуточных шагов. Было замечено, что «… сложные агенты ИИ часто демонстрируют присущую им непредсказуемость: они демонстрируют эмерджентное поведение, которое невозможно предсказать с точностью — даже их собственными программистами. Такое поведение проявляется только через взаимодействие с миром и с другими агентами в окружающей среде… Фактически, Алан Тьюринг и Алонзо Черч показали принципиальную невозможность обеспечения того, чтобы алгоритм выполнял определенные свойства, без фактического запуска указанного алгоритма. Существуют фундаментальные теоретические ограничения нашей способности проверять, что конкретный фрагмент кода всегда будет удовлетворять желаемым свойствам, если только мы не выполним этот код и не пронаблюдаем за его поведением». (5)

В контексте безопасности ИИ и непредсказуемости управления ИИ подразумевается, что определенные стандартные инструменты и механизмы безопасности не будут работать, чтобы сделать передовые интеллектуальные системы безопасными в использовании. Например, говоря о законодательном контроле: «… непредсказуемость делает очень маловероятным, что закон может должным образом поощрять или сдерживать определенные эффекты, и, что более проблематично, несостоятельность наших правовых структур позволит людям, использующим алгоритмы, переносить затраты на других без необходимости возможность заплатить за причиненный ими вред». (6)

Мы можем сделать вывод, что непредсказуемость ИИ сделает невозможным создание ИИ, который на 100 % безопасен и понятен, но мы все еще можем стремиться к более безопасному ИИ, поскольку теперь мы более способны делать обоснованные прогнозы о разрабатываемом нами ИИ.

Спасибо за чтение! Полный текст статьи можно найти в блоге Романа здесь: https://medium.com/@romanyam/unpredictability-of-ai-3551b8310fc2

Этот пост был предоставлен вам Essentials любезно предоставлен Faveeo. Подпишитесь на наши информационные бюллетени, чтобы быть в курсе самого важного контента по наиболее важным направлениям бизнеса.

Ознакомьтесь с годовым отчетом ИИ здесь: http://bit.ly/36lvref

Подпишитесь на Essentials здесь: http://bit.ly/2RftnQL

Цитаты

  1. Ямпольский Р.В., Безопасность и безопасность искусственного интеллекта. 2018: Чепмен и Холл/CRC & Brundage, M., et al., Злоумышленное использование искусственного интеллекта: прогнозирование, предотвращение и смягчение последствий. Препринт arXiv arXiv:1802.07228, 2018.
  2. Ямпольский, Р.В. Пространство возможных дизайнов разума на Международной конференции по общему искусственному интеллекту. 2015. Спрингер.
  3. Принцип Винджа в Арбитале. Проверено 19 мая 2019 г .: доступно по адресу: https://arbital.com/p/Vinge_principle/.
  4. Vingean Reflection в Aribital. Проверено 19 мая 2019 г .: доступно по адресу: https://arbital.com/p/Vingean_reflection/.
  5. Рахван И. и М. Себриан, Поведение машины должно быть академической дисциплиной, в Nautilus. 29 марта 2018 г.: доступно по адресу: http://nautil.us/issue/58/self/machine-behavior-needs-to-be-an-academic-discipline.
  6. Bathaee, Y., Черный ящик искусственного интеллекта, невыполнение намерения и причинно-следственная связь. Harvard Journal of Law & Technology, 2018. 31(2): p. 889.