Критики последних достижений в области искусственного интеллекта жалуются, что, хотя эти достижения привели к значительным улучшениям в системах ИИ, эти системы все еще не демонстрируют «настоящего», «истинного» или «подлинного» понимания. Использование таких слов, как «настоящий», «истинный» и «подлинный» подразумевает, что «понимание» бинарно. Система либо демонстрирует «подлинное» понимание, либо нет. Сложность такого мышления в том, что человеческое понимание никогда не бывает полным и совершенным. В этой статье я утверждаю, что «понимание» существует в непрерывном спектре возможностей. Рассмотрим, например, понятие «вода». Большинство людей понимают многие свойства воды: она мокрая, ее можно пить, она нужна растениям, при охлаждении образует лед и так далее. Но, к сожалению, многие люди не понимают, что вода является проводником электричества и поэтому не следует использовать фен в душе. Тем не менее, мы не говорим о тех людях, что им не хватает «настоящего», «истинного» или «подлинного» понимания «воды». Вместо этого мы говорим, что их понимание неполное.

Мы должны принять такое же отношение к оценке наших систем искусственного интеллекта. Существующие системы демонстрируют определенные виды понимания. Например, когда я говорю Siri «Позвони Кэрол», и она набирает правильный номер, вам будет трудно убедить меня, что Siri не поняла мою просьбу. Когда я спрашиваю Google: "Кто победил систему IBM Deep Blue?" и он дает мне информационное окно с ответом «Каспаров» большими буквами, он правильно понял мой вопрос. Конечно, это понимание ограничено. Если я дополню свой вопрос Google словом «Когда?», Это даст мне словарное определение «когда» - он не интерпретирует мой вопрос как часть диалога.

Споры о «понимании» восходят к Аристотелю и, возможно, наиболее четко сформулированы в аргументе Сирла «Китайская комната» (Searle, 1980). Я призываю людей прочитать прекрасную статью Коула в Стэнфордской энциклопедии философии (Cole, 2014). Моя позиция - это форма функционализма. Мы характеризуем понимание функционально и оцениваем вклад различных внутренних структур в головном мозге или в системе искусственного интеллекта в соответствии с их причинной ролью в создании измеряемой функции.

С точки зрения разработки программного обеспечения функционализм побуждает нас разрабатывать серию тестов для измерения функциональности системы. Мы можем спросить систему (или человека): «Что произойдет, если я охладю воду до –20 градусов?» или «Что может случиться, если я воспользуюсь феном в душе?» и измерить ответы. В той степени, в которой ответы уместны, мы можем сказать, что система понимает, и в той степени, в которой ответы неверны, мы обнаружили случаи, когда система не понимала.

Чтобы система могла понять, она должна создавать связи между различными концепциями, состояниями и действиями. Сегодняшние системы языкового перевода правильно связывают слово «вода» на английском языке с «agua» на испанском языке, но в них нет никакой связи между «водой» и «электрическим током».

Большая часть критики последних достижений ИИ проистекает из двух источников. Во-первых, шумиха вокруг ИИ (создаваемая исследователями, организациями, в которых они работают, и даже правительствами и финансовыми агентствами) достигла крайнего уровня. Это даже породило опасения, что «суперинтеллект» или «апокалипсис роботов» неминуем. Критика необходима для того, чтобы противостоять этой чепухе.

Во-вторых, критика является частью продолжающихся дебатов о будущих направлениях исследований в области искусственного интеллекта и о распределении государственного финансирования. С одной стороны, сторонники коннекционизма, разработавшие глубокое обучение и поддерживающие продолжение этого направления исследований. С другой стороны, сторонники методов искусственного интеллекта, основанных на построении символов и манипулировании ими (например, с использованием формальной логики). Также растет сообщество, выступающее за системы, сочетающие оба подхода в гибридной архитектуре. Критика также важна для этого обсуждения, потому что сообщество ИИ должно постоянно подвергать сомнению наши предположения и выбирать, как инвестировать время и деньги общества в развитие науки и технологий в области ИИ. Однако я возражаю против аргумента, который гласит: «Сегодняшние системы, основанные на глубоком обучении, не демонстрируют подлинного понимания, и поэтому от глубокого обучения следует отказаться». Этот аргумент так же ошибочен, как и аргумент, который гласит: «Сегодняшние системы, основанные на глубоком обучении, достигли больших успехов, и их дальнейшее развитие« решит проблему ». Мне нравится анализ Лакатоса (1978) о том, что исследовательские программы, как правило, продолжаются до тех пор, пока они не перестают быть плодотворными. Я думаю, что мы должны продолжать следовать программе коннекционизма, программе символического представительства и возникающим гибридным программам, потому что все они продолжают быть очень плодотворными.

Критика глубокого обучения уже ведет к новым направлениям. В частности, демонстрация того, что системы глубокого обучения могут соответствовать производительности человека в различных тестовых задачах, но не могут быть обобщены на внешне очень похожие задачи, привела к кризису в машинном обучении (в смысле Kuhn, 1962). Исследователи отвечают новыми идеями, такими как инварианты обучения (Arjovsky, et al., 2019; Vapnik, Ismailov, 2019) и открывают причинные модели (Peters, et al., 2017). Эти идеи применимы как к символическому, так и к коннекционистскому машинному обучению.

Я считаю, что мы должны добиваться достижений в области науки и технологий искусственного интеллекта, не участвуя в дебатах о том, что считается «подлинным» пониманием. Вместо этого я призываю нас сосредоточиться на том, какие системные возможности мы должны стремиться достичь в следующие 5, 10 или 50 лет. Мы должны определить эти возможности с точки зрения тестов, которые мы могли бы провести в системе ИИ, чтобы определить, обладает ли она этими возможностями. Для этого необходимо задействовать возможности. Короче говоря, я выступаю за разработку ИИ на основе тестов. Это потребует от нас перевести наши нечеткие понятия «понимание» и «интеллект» в конкретные измеримые возможности. Это само по себе может быть очень полезным упражнением.

Операционные тесты не должны рассматривать только поведение ввода-вывода системы AI. Они могут исследовать внутренние структуры (структуры данных, базы знаний и т. Д.), Которые вызывают такое поведение. Одно из больших преимуществ ИИ перед нейробиологией заключается в том, что нам намного проще проводить эксперименты с нашими системами ИИ, чтобы понять и оценить их поведение. Однако следует сделать одно предостережение. Коннекционистские методы, включая глубокое обучение, часто создают внутренние структуры, которые трудно интерпретировать, и, похоже, это верно и для мозга. Следовательно, мы не должны ставить перед собой цель исследования убедиться в наличии определенных структур (например, символических представлений). Скорее нам следует сосредоточиться на желаемых поведенческих способностях и спросить, как внутренние механизмы достигают этих возможностей. Например, чтобы провести успешный диалог, каждый участник должен отслеживать историю взаимодействия. Но есть много способов сделать это, и нам не обязательно ожидать обнаружения явной исторической памяти внутри системы глубокого обучения. И наоборот, то, что мы запрограммировали конкретную внутреннюю структуру, не означает, что она ведет себя так, как мы планировали. Дрю Макдермотт в своей знаменитой критике «Искусственный интеллект встречает естественную глупость» (McDermott, 1976) подробно обсуждал эту проблему.

Одно из последствий повторяющихся волн продвижений и критики ИИ известно как «Эффект ИИ», в котором область ИИ рассматривается как провал, потому что современные системы не демонстрируют «истинного понимания» или «реального интеллекта». ». В результате успехи ИИ игнорируются, а финансирование сокращается. Например, было время, когда игра в шахматы или го на человеческом уровне считалась таким критерием интеллекта. Но когда Deep Blue победил Каспарова в 1997 году (Кэмпбелл и др., 2002), один видный исследователь искусственного интеллекта утверждал, что победить людей в шахматах было легко - чтобы показать настоящий интеллект, нужно решить «проблему верховного защитника грузовика», которая включает в себя задний ход грузовика с шарнирно-сочлененной рамой на парковочное место (личное сообщение). Фактически, эта проблема уже была решена девятью годами ранее Нгуеном и Видроу с помощью обучения с подкреплением (Nguyen & Widrow, 1989). Сегодня многие вдумчивые критики снова предлагают новые задачи и новые наборы необходимых или достаточных условий для заявления о том, что система «понимает».

Между тем, исследования и разработки в области ИИ создают все более совершенные системы, приносящие пользу обществу. Как для интеллектуальной честности, так и для непрерывного финансирования важно, чтобы исследователи искусственного интеллекта признали заслуги наших успехов и взяли на себя ответственность за наши недостатки. Мы должны подавить шумиху вокруг новых достижений, и мы должны объективно измерить способы, которыми наши системы понимают и не понимают своих пользователей, их цели и более широкий мир, в котором они работают. Давайте перестанем отвергать наши успехи как «фальшивые», а не «подлинные», и давайте продолжим двигаться вперед с честностью и продуктивной самокритикой.

использованная литература

Арджовский М., Боттоу Л., Гульраджани И. и Лопес-Пас Д. (2019). Минимизация инвариантного риска. ArXiv, 1907.02893 (v2), 1–31. Http://arxiv.org/abs/1907.02893

Баудиш, П. и Гейли, Ж.-Л. Пачи: Современная программа Go с открытым исходным кодом. В Advances in Computer Games, 24–38 (Springer, 2012).

Кэмпбелл, М., Хоан, А. Дж., Сюй, Ф. Х. (2002). "Темно-синий". Искусственный интеллект. 134: 57–59. DOI: 10.1016 / S0004–3702 (01) 00129–1

Коул, Д. (2014). Аргумент о китайской комнате. Стэнфордская энциклопедия философии https://plato.stanford.edu/entries/chinese-room/

Кун, Томас С. (1962). Структура научных революций (1-е изд.). University of Chicago Press. п. 172. LCCN 62019621.

Лакатош (1978). Методология программ научных исследований: философские статьи, том 1. Кембридж: Издательство Кембриджского университета

Макдермотт, Д. (1976). Искусственный интеллект встречается с естественной глупостью. Бюллетень ACM SIGART (57), 4–9.

Нгуен, Д.С., и Видроу, Б. (1989). Верхушка грузовика: пример самообучения в нейронных сетях. Международная объединенная конференция по нейронным сетям (IJCNN 1989), 357–363, том 2.

Петерс, Дж., Янцинг, Д., & Шёлкопф, Б. (2017). Элементы причинного вывода: основы и алгоритмы обучения. MIT Press, Кембридж, Массачусетс, США.

Серл, Дж. (1980). Умы, мозги и программы. Поведенческие науки и науки о мозге, 3: 417–57

Вапник В., Измайлов Р. (2019). Переосмысление теории статистического обучения: обучение с использованием статистических инвариантов. Машинное обучение, 108 (3), 381–423. Https://doi.org/10.1007/s10994-018-5742-0