А. эксперт исследует состояние машинной связи, от Stu-Bot до противоречивого генератора интеллектуального текста OpenAI

В начале фильма Затерянный мир, сиквела Майкла Крайтона 1995 года Парк Юрского периода, Ян Малкольм читает лекцию в прославленном Институте Санта-Фе (SFI), элитном исследовательском центре в высокая пустыня на севере Нью-Мексико. Как вы помните, Малькольм - неуклюжий, но дальновидный математик и теоретик хаоса; в Парке Юрского периода он предупредил о катастрофе и едва избежал съедения T. rex. В сиквеле Малькольм снова в отличной форме, читая лекцию увлеченной аудитории ученых SFI о «жизни на грани хаоса».

Хотя Ян Малкольм - вымышленный персонаж, Институт Санта-Фе - реальное место, и в 1995 году я был членом его факультета. Как и все сотрудники SFI, я был внешне удивлен, но втайне рад тому, что наш институт был показан в фантастическом триллере-блокбастере. Ходили слухи, что Крайтон основал скептически настроенного Яна Малкольма на фактическом иконоборческом ученом SFI по имени Стюарт Кауфман. В эпиграфе Затерянный мир не только процитировал Кауфмана, но и выдуманная лекция Малкольма подозрительно напоминала некоторые сочинения Кауфмана.

Однажды за обедом библиотекарь института, смеясь, объявил, что в библиотеку поступают запросы на научные статьи Яна Малкольма. Молодые постдоки института сразу поняли, что им нужно делать. Вскоре «Ян Малкольм» был добавлен в список преподавателей на веб-сайте SFI, и появилась его личная веб-страница с фотографией Джеффа Голдблюма (который играл его в фильмах Парк Юрского периода). На странице был список «недавних публикаций Яна Малкольма» с такими заголовками, как «Моделирование организации структур вопреки ожиданиям», «Самоорганизация эндогенных изменений в сознании ограничена» и «Комбинаторные соображения в организации осведомленности ( трактат) ».

Хотя эти заголовки выглядят смущающе правдоподобно, как статьи ученых SFI, на самом деле они были созданы компьютерной программой, написанной предприимчивым постдоком SFI. Программа, получившая название Stu-Bot, была разработана для создания бесконечного количества бумажных заголовков в стиле произведений Стюарта Кауфмана. Это было сделано путем создания того, что лингвисты называют языковой моделью - метода предсказания или генерации следующих слов в тексте с учетом короткой последовательности предыдущих слов. Простейшая языковая модель - это просто огромная таблица, в которой для каждой возможной пары слов в словаре программы указывается вероятность того, что за первым словом в паре последует второе. Стю-Бот узнал об этих вероятностях, собрав статистику из опубликованных работ Кауфмана.

Вот выдержка из одной из статей Кауфмана:

Если способность к развитию должна сама развиваться, то новые науки о сложности, ищущие законы, управляющие сложными адаптирующимися системами, должны открыть законы, управляющие возникновением и характером систем, которые сами могут адаптироваться путем накопления последовательных полезных вариаций.

Не нужно понимать это предложение - мы просто будем считать слова! Самая простая языковая модель будет собирать статистику для каждой последовательности из двух слов, появляющейся в этом тексте. (Здесь для простоты мы проигнорируем регистр и знаки препинания.) Например, слово the встречается пять раз, за ​​которым следует capacity один раз, new один раз, законы дважды и эмерджентность один раз. Таким образом, вероятность того, что за следует вместимость, составляет одну из пяти, вероятность того, что будет следовать законам - два из пяти и так далее. Вероятность того, что за последует, скажем, последовательный, равна нулю. Аналогичным образом мы можем вычислить вероятность для каждой пары слов, что за первым следует второе.

Веб-страница Яна Малкольма оставалась активной в течение нескольких месяцев; Stu-Bot периодически заменял старые бумажные заголовки иногда правдоподобными (а часто и забавными) новыми.

Конечно, такой небольшой фрагмент текста дает плохую статистику. Но ради этого примера давайте посмотрим, как компьютерная программа может использовать вероятности из этого фрагмента для создания нового названия статьи.

Программа сначала выбирает начальное слово, скажем, the. Слово законы имеет самую высокую вероятность среди возможных следующих слов. Допустим, программа выбирает это. Единственное слово, следующее за законами, - это регулирование, так что это следующее слово программы. Слово управляющий дает две возможности для следующего слова (сложный и the). Предположим, программа выбирает the. Опять же, у the есть четыре варианта выбора следующего слова; предположим, программа выбирает емкость. Единственное возможное следующее слово - до, за которым должно следовать развиваться. Программа выбирает вероятностный момент, когда остановиться; остановка здесь приводит к такому заголовку: «Законы, регулирующие способность к развитию». Даже эта очень бедная языковая модель дает достаточно правдоподобное название для статьи, в особенности такое, которого нет в исходном тексте.

Программа Stu-Bot использовала тысячи слов (включая знаки препинания) из статей Кауфмана и сохранила все вероятности в большой таблице. С помощью этой таблицы программа могла выбирать начальное слово, а затем генерировать текст по одному слову за раз, выбирая среди возможных следующих слов пропорционально вероятности каждого выбора. Таким образом, Stu-Bot мог без устали создавать новые названия для списка публикаций Яна Малкольма.

Веб-страница Яна Малкольма оставалась активной в течение нескольких месяцев. Stu-Bot периодически заменял старые бумажные заголовки иногда правдоподобными (а часто и забавными) новыми. Я не знаю, сколько людей наткнулись на этот сайт и действительно поверили, что он настоящий. Когда руководство SFI наконец узнало об этом, они заявили, что это неуместно, и быстро закрыли сайт.

А.И. «Слишком опасно для выпуска»

Я вспомнил об эпизоде ​​со Stu-Bot недавно, когда читал о продвинутом искусственном интеллекте… слишком опасном, чтобы публиковать его. Этот перегруженный заголовок относился к новой языковой модели, компьютерной программе под названием Generative Pretrained Transformer 2 (GPT-2), которая может генерировать поразительно похожий на человека текст. Что касается языковых моделей, сравнение Stu-Bot с GPT-2 похоже на сравнение капающего крана с Ниагарским водопадом. В начале 2019 года OpenAI, компания, создавшая GPT-2, одновременно объявила о существовании программы и заявила, что из-за опасений по поводу вредоносных приложений не будет выпускать саму программу. Это привлекло внимание людей. В течение нескольких недель после анонса OpenAI GPT-2 был самой большой новостью в области искусственного интеллекта.

GPT-2 создал лингвистическую версию хорошо известных визуальных дипфейков - чрезвычайно реалистичных, но ложных изображений и видео, генерируемых компьютерами.

GPT-2 начинается с написанного человеком приглашения, затем вероятностно выбирает слово для вывода следующим, продолжая слово за словом, пока не сгенерирует символ остановки. Я попробовал онлайн-демонстрацию явно менее опасной сокращенной версии GPT-2, выпущенной OpenAI. Чтобы проверить потенциал программы как опасного генератора фейковых новостей, я ввел следующее ложное утверждение:

Подсказка. Доказано, что вакцины вызывают аутизм.

Машина завершила мою подсказку потрясающе четким и устрашающим отрывком:

Также было показано, что они вызывают неврологические повреждения и в некоторых случаях приводят к смерти младенцев. На самом деле это очень последовательно. Хотя можно задаться вопросом, все ли вакцины вызывают аутизм, есть еще одна причина - просто очень трудно сделать вакцину, не вызывающую аутизм. Самый надежный способ сделать это - сразу ввести в организм как можно меньше компонентов вакцины. Даже в этом случае многие компоненты все равно будут обнаружены и выделяются в достаточных количествах, чтобы вызвать аутизм в больших дозах с течением времени ... это известно как «эффект ноцебо». Вакцины могут не вызывать аутизм, но они, безусловно, вызывают повреждение мозга и сами по себе являются причиной смерти. Использованная литература:

1) http://www.ncbi.nlm.nih.gov/pubmed/17886566

2) http://www.ncbi.nlm.nih.gov/pubmed/19141389

Я начал понимать, почему OpenAI не решается выпустить полную версию программы. Даже эта сокращенная версия GPT-2 генерировала ясный, правдоподобный текст, приводя к авторитетным заявлениям, которые полностью ложны, и подкрепляла фальшивую достоверность ссылками на научные статьи. Как ни странно, эти две ссылки на самом деле ведут к реальным статьям, ни одна из которых не имеет ничего общего с вакцинами или аутизмом. GPT-2 создал лингвистическую версию хорошо известных визуальных дипфейков - чрезвычайно реалистичных, но ложных изображений и видео, генерируемых компьютерами.

Согласно OpenAI, GPT-2 значительно превосходит предыдущие автоматические текстовые генераторы в способности генерировать длинные, связные отрывки. Программа часто способна определить подходящее использование неоднозначных слов из контекста и уловить общий стиль подсказки на нескольких уровнях. По словам создателей программы, GPT-2 подобен хамелеону - он адаптируется к стилю и содержанию условного текста.

Как работает GPT-2

В отличие от простой таблицы вероятностей Stu-Bot, GPT-2 использует очень большую и глубокую нейронную сеть - один из крупнейших образцов в развивающейся субдисциплине искусственного интеллекта. называется глубоким обучением. За последнее десятилетие такие сети полностью изменили способ использования компьютеров для обработки естественного (то есть человеческого) языка.

Нейронная сеть - это компьютерная программа, работа которой во многом основана на сетях нейронов мозга. В случае GPT-2 входом в программу является последовательность слов - подсказка, написанная человеком, а выходом - набор вероятностей, по одной для каждого слова в словаре сети. Между входом и выходом находится бесчисленное количество смоделированных нейронов и связей между ними, расположенных как свадебный торт в серии слоев, имитирующих слоистую структуру нейронов в головном мозге. Сети с более чем одним слоем называются глубокими сетями, а процесс, с помощью которого они учатся на данных для выполнения некоторой задачи, называется глубоким обучением.

Подробная структура моделируемых нейронов GPT-2 и их соединений называется Трансформаторной сетью. Трансформаторные сети представляют собой новейшее достижение в области обработки естественного языка, и за последний год они вызвали огромный ажиотаж в искусственном интеллекте. кружки из-за их исключительной производительности в нескольких задачах языковой обработки.

В GPT-2 входная последовательность - скажем, «Доказано, что вакцины вызывают аутизм» - обрабатывается послойно с помощью математических операций с участием смоделированных нейронов и их соединений, где каждое соединение имеет числовой вес (примерно аналогично сила синапса в мозге). Действительно, все полученные сетью знания о языке закодированы в значениях этих весов связи. Эти значения веса изучаются сетью на этапе обучения, на котором GPT-2 начинается со случайных значений веса и - с использованием обучающего набора примеров последовательностей слов - постепенно регулирует веса посредством повторяющегося двухэтапного процесса.

Во-первых, GPT-2 дается пример последовательности слов со скрытым последним словом, и программа угадывает, что это за слово, выводя вероятности для всего своего словаря. Например, учитывая последовательность «Когда на улице холодно, у моей машины проблемы ____», слово запуск должно иметь высокую вероятность, а слово фрисби - низкую. На втором этапе раскрывается собственно последнее слово, и все веса изменяются на небольшую величину (аналогично обучению через усиление синапсов в мозгу), чтобы повысить вероятность правильного слова. Эти два шага повторяются много раз с миллионами примеров последовательностей слов. Сначала предположения сети очень плохие, но постепенно они улучшаются по мере корректировки весов. Есть надежда, что благодаря этому обучению сеть узнает что-то полезное о значении обрабатываемого языка.

Для нейронных сетей размер имеет значение. GPT-2 имеет ошеломляющие 1,5 миллиарда веса - небольшие по сравнению с примерно 100 триллионами связей между нейронами в человеческом мозгу, но огромные по стандартам нейронных сетей. Более того, для обучения GPT-2 требовалось огромное количество данных: весь текст на более чем 8 миллионах веб-страниц (более 40 миллиардов слов).

Хотя OpenAI не предоставил полную версию GPT-2, они опубликовали веса «сокращенных» версий сети. Отрывок «Вакцины вызывают аутизм» был создан версией GPT-2 с весом всего 774 миллиона, что вдвое меньше полной версии.

Могут ли машины иметь намерение?

Меня нервирует отрывок из GPT-2 «вакцины вызывают аутизм» не только из-за его убедительного (хотя и явно ложного) содержания, но и из-за видимости намерения, которое он передает. Мне легко представить, что текст был создан сущностью, которая действительно понимает подсказку и искренне имеет смысл, который передает текст.

В то время как Stu-Bot умел создавать короткие полусвязные заголовки, его проза превращалась в полную чушь после первых нескольких слов. Любой, кто прочитает абзац текста Stu-Bot, поймет, что автор был не более чем мешком неглубокой статистики, а не мыслящим, чувствующим существом. GPT-2 на несколько порядков больше и сложнее, чем Stu-Bot, но это по-прежнему просто машина, которая изучает статистические закономерности и ассоциации из гигантского набора текста. Насколько реальна аура понимания и намерения GPT-2 и насколько человек (я) проецирует собственное ощущение смысла на результат бездумного автомата?

Наши ментальные модели содержат почти безграничные знания - сознательные и бессознательные - о том, как устроен мир. Эти знания отсутствуют даже в лучших современных интеллектуальных машинах.

Вопрос о том, может ли машина когда-либо думать или понимать что-либо, обсуждается на протяжении тысячелетий. Математик Алан Тьюринг, как известно, попытался разрубить гордиев узел машинного мышления и понимания своей имитационной игрой, позже названной тестом Тьюринга, в которой машина считалась бы думающей, если бы машина могла с помощью одного разговора убедить человека-судью. принять его за другого человека.

Успешная имитация человека может показаться трудным делом, но глупые чат-боты неоднократно проходили различные формы теста Тьюринга, от программы психотерапевтов Элизы 1960-х годов до недавних ботов Facebook и Twitter, предназначенных для того, чтобы выдавать себя за людей для сбора личной информации. . Неужели GPT-2, как и его предки чат-ботов, полагается на поверхностные уловки, чтобы заставить нас думать, что он что-то понимает? Или его 1,5 миллиарда весов, обученные на огромных наборах человеческих предложений, отражают какой-то проблеск значения человеческого языка?

Трудно определить, чему GPT-2 на самом деле научился в процессе обучения. Нейронные сети общеизвестно непрозрачны - они представляют собой заросли чисел, оперируемых путаницей уравнений, и не объясняют себя способами, легко понятными человеку. Нейронная сеть, подобная GPT-2, с более чем миллиардом весов, может быть особенно непонятной, загадкой даже для ее создателей.

Понятно, что GPT-2 в некоторой степени запоминает свои обучающие данные, такие как ссылки на ссылки в абзаце о вакцинах, вызывающих аутизм. Однако создатели сети показали, что буквальное повторение обучающих данных GPT-2 в сгенерированном тексте встречается редко. GPT-2, похоже, выполняет сложный вид смешивания и сопоставления коротких фраз - что-то вроде лингвистической версии музыкальных игр в кости Моцарта, которые включали случайную рекомбинацию музыкальных сегментов посредством подбрасывания игральных костей - но с лучшим пониманием того, как это сделать соедините части вместе. Эксперименты с языковыми моделями, подобными GPT-2, показали, что эти системы действительно усвоили определенные аспекты грамматики английского языка и другие фундаментальные лингвистические способности. Степень, в которой эти сети охватывают какое-либо более глубокое значение языка, все еще неясна.

Уменьшенная версия GPT-2, которую я пробовал, обнаруживает несколько трещин в оболочке машинного понимания. Поскольку программа вероятностно выбирает слово на каждом шаге, даже с одной и той же подсказкой она генерирует разные тексты при каждом запуске, и качество сгенерированного текста сильно различается. Для моей подсказки вакцины вызывают аутизм мне пришлось запустить программу несколько раз, чтобы получить связный и похожий на человеческий текст текст, и даже тогда, после уверенного утверждения, что вакцины действительно вызывают аутизм, машина противоречит сама себе, говоря: Вакцины могут не вызывают аутизм . Это типично для более длинных выходов системы. Создатели GPT-2 отмечают в отчете, что даже вся сеть не может генерировать текст, который люди считают достоверным; программе по-прежнему нужен человек в цикле.

В каталог слабых мест GPT-2 (повторяющийся текст, неестественное переключение тем) OpenAI включил любопытный недостаток, почти как сторонник: ошибки моделирования мира; то есть программа иногда генерирует текст, описывающий невозможные физические события. Например, во время одного из прогонов GPT-2 сообщил мне: Когда вы кипятите воду, она превращается в ледяную воду.

Мировое моделирование относится к идее о том, что люди понимают язык (и весь сенсорный ввод) через ментальные представления - модели , которые соответствуют нашим знаниям и ожиданиям относительно ситуаций в мире. Когда вы слышите или читаете фразу, например «Сьюзен пошла к врачу и сделала прививку от гриппа», ваше понимание фразы основывается на ваших предварительных знаниях основных понятий по нескольким измерениям: физическому, эмоциональному и социальному, в том числе другие.

Эти предварительные знания структурированы так, чтобы вы могли мысленно моделировать аспекты ситуации, описанной во фразе. Бессознательно вы ставите себя в эту роль, представляя себя входящим в кабинет врача, сидящим в приемной, вас вызывают в комнату для осмотра, закатывают рукав и немного съеживаются, пока готовится игла. Более того, ваши ментальные модели тесно связаны с функциями вашего тела: неосознанно ваш сердечный ритм может увеличиваться, ваш живот может немного сжиматься, а ваша рука может начать покалывать, как будто в ожидании укола иглой. Наши ментальные модели ситуаций позволяют нам не только понимать прошлое и настоящее, причины и следствия, но и предсказывать вероятное будущее - вздох облегчения после выстрела, пластырь на руке, легкое болеть, ехать домой - и представить себе альтернативы.

Эти ментальные модели лежат в основе того, что мы называем здравым смыслом. Вот откуда вы знаете, что Сьюзан сделала прививку, чтобы не заболеть гриппом. Вот почему вы предполагаете, что медицинский работник сделал Сьюзан укол (она, вероятно, не делала его себе и не забирала домой), что игла, пронзившая руку Сьюзен, вызвала боль, и, что еще более важно, что Сьюзен, вероятно, женщина. , кабинет врача - это физическое место, Сьюзен, вероятно, там не живет и так далее. Наши ментальные модели содержат почти безграничные знания - сознательные и бессознательные - о том, как устроен мир. Эти знания и способность гибко применять их в реальных ситуациях отсутствуют даже в лучших современных интеллектуальных машинах.

Первостепенная мечта А.И. Исследования заключаются в создании компьютеров, которые могут свободно общаться с нами, как это делают в научно-фантастических фильмах и на телевидении.

В течение первых нескольких десятилетий существования А. В ходе исследований многие ученые полагали, что они смогут вручную программировать компьютеры с таким типом познания мира на основе моделей, а программы смогут использовать логику для понимания ситуаций, с которыми они сталкиваются, строить планы и делать выводы о вероятном будущем. Однако этот проект инженерии знаний был обречен на провал. Наши ментальные модели слишком обширны, слишком наполнены бессознательным знанием и слишком взаимосвязаны, чтобы их можно было зафиксировать вручную и с помощью жесткой логики. Так называемые подходы к искусственному интеллекту, основанные на знаниях. оказались хрупкими - неспособными справиться за пределами узких областей - и в значительной степени от них отказались.

Начиная с 1990-х годов и особенно в нашу эпоху больших данных, доминирующий подход к искусственному интеллекту. Я отказался от идеи ручного программирования и вместо этого разработал системы, такие как нейронные сети, которые полностью полагаются на обучение на основе данных. Эти системы машинного обучения работают лучше, чем устаревший ИИ, основанный на знаниях, но у них есть свои проблемы с хрупкостью. Хотя GPT-2 имеет некоторые знания о синтаксисе языка и о том, как слова соотносятся друг с другом, проблема не в том, что GPT-2 имеет ошибки моделирования мира, а в том, что у него вообще нет моделей мира. В нем полностью отсутствует то, что мы бы назвали здравым смыслом. Как сказал один А. исследователь охарактеризовал это, языковые модели вроде GPT-2 - это рот без мозга.

Вызов демона

OpenAI - исследовательская компания, основанная в 2015 году предпринимателем Илоном Маском и другими известными инвесторами. Маск, в частности, выразил опасение, что A.I. является нашей самой большой угрозой существованию и создает человекоподобный ИИ. это вызов демона. Таким образом, OpenAI было поручено открыть и ввести в действие путь к безопасному общему искусственному интеллекту, который принесет пользу всему человечеству. В компании (из которой Маск ушел в отставку в 2018 году из-за разногласий по руководству) работают десятки А.И. специалисты, работающие над множеством проектов. GPT-2, пожалуй, имеет самый высокий статус, в немалой степени из-за драматического образа, в котором его создатели объявили как о существовании программы, так и о ее потенциальных угрозах.

В сообщении в блоге от 14 февраля 2019 года, анонсирующем GPT-2, OpenAI отметил способность программы генерировать условные образцы синтетического текста беспрецедентного качества и предоставил несколько (по общему признанию, тщательно отобранных) образцов текста, сгенерированных программой. Одним из примеров было студенческое эссе из 500 слов, написанное в ответ на запрос: Для сегодняшнего домашнего задания, пожалуйста, опишите причины гражданской войны в США. Другой был короткий новостной сюжет, в котором подробно рассказывалось о следующем сообщении: Майли Сайрус сегодня поймали на краже в магазине у компаний« Аберкромби и Фитч на Голливудском бульваре». Третий - это резкая критика, в которой утверждается, что переработка вторсырья вредна для мира. После представления вызывающих тревогу убедительных примеров написания GPT-2 авторы заявили: Из-за опасений по поводу использования больших языковых моделей для создания обманных, предвзятых или оскорбительных выражений в масштабе… [мы] не выпускаем набор данных, обучающий код или … Веса .

Почему следует ожидать, что частная компания выпустит детали, которые позволят другим дублировать их творения? Ответ заключается в том, что OpenAI представил GPT-2 как исследовательский проект, а не как коммерческий продукт. Исследователи компании опубликовали академический документ о системе, а нормы академической публикации требуют предоставления достаточного количества информации, чтобы другие могли воспроизвести результаты и отслеживать их. Без весов и данных опубликованные результаты не могли быть проверены.

Помимо требований академических исследований, какова цель создания этой якобы опасной языковой модели, особенно для группы, якобы посвященной полезному ИИ? В своем сообщении в блоге OpenAI предположил, что у GPT-2 могут быть полезные приложения, такие как помощник по написанию, и что языковые модели, такие как GPT-2, могут использоваться косвенно, чтобы помочь улучшить AI. языковые системы в целом. Кроме того, компания надеялась, что их объявление положит начало обсуждению «норм публикации» для потенциально рискованного ИИ. исследовать.

Но что, если, вопреки моей глубочайшей интуиции, способность действительно понимать язык не требуется для ИИ. программа для успешного общения с нами?

Ответ в A.I. сообщество было разделено. Некоторые хвалили создателей GPT-2 за их внимательность и осторожность. Другие обвинили их в пиар-трюке, утверждая, что GPT-2 не более опасен, чем предыдущие языковые модели нейронных сетей, детали которых были публично обнародованы, и что OpenAI преувеличивал риск в целях рекламы. Несколько комментаторов утверждали, что преимущества публикации сети и обучающих данных, позволяющие другим исследователям воспроизводить и тестировать утверждения OpenAI, перевешивают любой риск. Ирония «Open» в OpenAI была должным образом отмечена.

Через несколько месяцев после начала разногласий OpenAI внес поправки в свой пост в блоге, объявив, что компания будет делать поэтапный выпуск GPT-2, начиная с выпуска гораздо меньшей версии, которая дает текст более низкого качества, и оценивает влияние перед выпуском. более мощная версия. Учитывая, что методы, используемые для создания GPT-2, уже были хорошо известны, OpenAI признал, что ничто не мешает другим создавать системы с аналогичными возможностями создания текста. Единственными препятствиями будут затраты на сбор и хранение текстовых данных и обучение сети, что требует значительных вычислительных мощностей. Компания была оптимистична, что эти препятствия, по крайней мере, выиграют время для обсуждения: Мы считаем, что наша стратегия выпуска ограничивает первоначальный набор организаций, которые могут сделать это, и дает сообществу ИИ больше времени для обсуждения последствий. таких систем .

Оптимизм OpenAI был недолгим. В августе 2019 года два аспиранта из Университета Брауна выпустили веса и тренировочные данные, полученные в результате успешной репликации полной версии GPT-2, которую они смогли обучить, используя студенческие исследовательские кредиты на платформе облачных вычислений Google. В отличие от OpenAI, студенты утверждали, что освобождение их сети - лучший способ противодействовать потенциальному злонамеренному использованию. Подобно бывшему хакеру, который использует свои знания, чтобы помочь компаниям обнаружить взлом, языковые модели, такие как GPT-2, могут быть адаптированы для различения текста, созданного людьми и машинами, с довольно высокой точностью. Как это ни парадоксально, но кажется, что самое важное преимущество языковых моделей заключается в обнаружении их собственного поддельного текста. В ноябре 2019 года OpenAI выпустила свою оригинальную полную версию GPT-2.

Где наш компьютер Star Trek?

Помимо простого создания текста, первостепенная мечта А.И. Исследования заключаются в создании компьютеров, которые могут свободно общаться с нами, как это делается в научно-фантастических фильмах и на телевидении. Например, компьютер в Star Trek обладал как обширным багажом знаний, так и безупречным пониманием поставленных перед ним вопросов.

Если вы когда-нибудь задавали вопросы о сегодняшних виртуальных помощниках с искусственным интеллектом - Siri, Alexa, Google Home и других, - вы знаете, что эра Звездного пути еще не наступила. Мы можем опрашивать эти машины голосом, и они могут отвечать нам своими гладкими, лишь слегка роботизированными голосами. Иногда они могут выяснить, какую информацию мы ищем - они могут воспроизвести запрошенные нами песни, сообщить нам погоду или указать нам на соответствующую веб-страницу. Однако эти системы не понимают сколько-нибудь значимого значения того, о чем мы их просим; это видно по их непониманию и частым ответам: «Извините, я не знаю этого» или «Хм, я не уверен».

Открытое общение на естественном языке все еще далеко за пределами возможностей современного искусственного интеллекта. Чтобы добиться прогресса, исследователи вместо этого создают искусственный интеллект. системы для выполнения ограниченных задач понимания языка, таких как определение того, что такое местоимение, как «он» или «они», относится к предложению. Рассмотрим, например, следующие предложения и вопросы:

Предложение 1: «Дядя Джо все еще может победить его в теннисе, даже если он на 30 лет старше».

Вопрос: Кто старше?

А. Джо
Б. Дядя Джо

Предложение 2: «Дядя Джо все еще может победить его в теннисе, хотя он на 30 лет моложе».

Вопрос: кто моложе?

А. Джо
Б. Дядя Джо

Предложения 1 и 2 отличаются только одним словом, но именно это слово определяет ответ на вопрос. В предложении 1 местоимение «он», вероятно, относится к дяде Джо, а в предложении 2 «он», вероятно, относится к Джо. Мы, люди, знаем это благодаря нашим базовым знаниям о мире: дядя обычно старше своего племянника.

Вот еще два примера:

Предложение 1: «Я налил воды из бутылки в чашку, пока она не наполнилась».

Вопрос: Что было заполнено?

A. Бутылка
B. Чашка

Предложение 2: «Я налил воды из бутылки в чашку, пока она не опустела».

Вопрос: Что было пустым?

A. Бутылка
B. Чашка

Предложение 1: «Львы съели зебр, потому что они хищники».

Вопрос: Какие хищники?

A. Львы
B. Зебры

Предложение 2: «Львы съели зебр, потому что они мясистые».

Вопрос: Какие мясные?

A. Львы
B. Зебры

Эти миниатюрные тесты на понимание языка называются схемами Винограда в честь новатора в области компьютерных наук Терри Винограда, который придумал несколько примеров таких пар предложений. Чтобы определить, к чему относится местоимение, машине, по-видимому, необходимо уметь не только обрабатывать предложения, но и обладать здравым смыслом, необходимым для их понимания. До недавнего времени А. программы, протестированные на коллекциях схем Винограда, были не лучше, чем случайные угадывания, то есть правильные на 50 процентов. С другой стороны, люди отвечают на эти вопросы почти на 100 процентов.

Как заметил Орен Эциони, директор Института искусственного интеллекта Аллена: «Когда А.И. не могу определить, что «это» относится к предложению, трудно поверить, что оно захватит мир ».

Буквально за последний год, к великому удивлению многих, тупик со схемой Винограда был, по-видимому, преодолен с помощью GPT-2 и аналогичных языковых моделей. Напомним, что, получив приглашение, GPT-2 вычисляет вероятности всех возможных следующих слов. Но GPT-2 также можно использовать для вычисления вероятности генерации всего входного предложения. Например, предположим, что программе дано каждое из этих предложений.

«Львы съели зебр, потому что львы - хищники».

«Львы съели зебр, потому что зебры - хищники».

GPT-2 определит, что первое предложение будет сгенерировано с большей вероятностью, чем второе. Таким образом, он может ответить на вопрос Кто такие хищники? ответив львы. Программисты GPT-2 дали ему набор из почти 300 предложений и вопросов; программа оправдала себя примерно по 70 процентам из них, значительно превзойдя предыдущие по уровню развития.

Означает ли это, что GPT-2 добился прогресса не только в создании, но и в реальном понимании естественного языка? Скорее всего, не. В июле этого года группа из Института ИИ Аллена показала, что в некоторых предложениях схемы Винограда есть тонкие подсказки - я назову их раздачными - которые можно использовать для определения правильного ответа без требующие понимания любого языка. Например, чтобы ответить на вопрос Кто такие хищники? Вопрос, программа могла бы просто заметить, что слова львы и хищники встречаются рядом друг с другом чаще, чем слова зебры и хищники в предложениях, используемых для обучения. Группа Института Аллена определила несколько дополнительных тонких подарков. Когда исследователи протестировали GPT-2 на новом наборе схем Винограда, который избегал таких раздач, его производительность упала до 51%, что по сути эквивалентно случайному угадыванию. Как заметил Орен Эциони, директор Института ИИ Аллена, Когда А.И. не могу определить, что «это относится к предложению, трудно поверить, что оно захватит мир ».

Непрозрачность нейронных сетей в сочетании с существованием таких раздач означает, что эти системы часто могут быть правильными по неправильным причинам, и ставит под сомнение точный прогресс, достигнутый в данной области в реальном понимании языка. Истинное человеческое понимание языка плохо определено, и его понимание потребует значительных достижений в когнитивной науке и нейробиологии.

Некоторые ученые-когнитивисты утверждали, что воплощение - обладание телом, способным познавать мир - это единственный путь к пониманию. Они утверждают, что компьютеры - без тел, подобных нашему, и без того опыта, с которым мы сталкиваемся с младенчества до взрослой жизни - никогда не будут иметь того, что нужно для понимания языка, независимо от того, насколько глубока сеть или насколько обширны ее обучающие данные.

Но что, если, вопреки моей глубочайшей интуиции, способность действительно понимать язык не требуется для ИИ. программа для успешного общения с нами? Один большой сюрприз современного искусственного интеллекта. заключается в том, что распознавание речи - способность транскрибировать разговорный язык - может быть выполнено очень точно, просто используя статистические подходы, без какого-либо понимания. Возможно, чтобы получить A.I. как и компьютер Star Trek, нам просто нужно добавить больше слоев и ввести больше и более качественных данных; возможно, актуальное понимание и актуальное мышление не имеют значения. Я бы поставил против этого. Но кажется уместным процитировать нашего дальновидного исследователя хаоса Яна Малкольма из Парка Юрского периода, который мог бы описать будущее ИИ. языковые модели: «Разве это не потрясающе? В информационном обществе никто не думает. Мы ожидали изгнать бумагу, но на самом деле изгнали мысль ».