Нет, GPT-3 не сверхразум. Он не обманывает людей и не притворяется глупым.

Существует нездоровый уровень змеиного масла на основе GPT-3, продаваемого нетехническим читателям.

Существует много шумихи вокруг невероятно мощного алгоритма машинного обучения GPT-3 OpenAI. Алгоритм может генерировать убедительные фрагменты текста с минимальным вводом. Дайте ему название, например: Чувствуете себя непродуктивным? Может быть, вам стоит перестать слишком много думать , и он может создать целую целостную статью, которая может стать вирусной ( и это произошло ). Его можно использовать для выполнения широкого круга задач. Например, GPT-3 может резюмировать статьи, создавать фанфики и даже писать программный код.

Нет сомнений в том, что это выдающийся алгоритм машинного обучения. Некоторые, включая меня, могут по праву назвать это переломным моментом. Однако, как это часто бывает с клепальными технологиями, некоторые люди делают самые абсурдные выводы.

Приведу несколько примеров.

Один автор, Бернард Мюллер, написал популярную статью под названием Я задал GPT-3 вопрос к« 42 . Мне не понравился его ответ, и вам тоже. " В своем заключении автор предположил: Возможно, он [GPT-3] прекрасно знает вопрос, но считает людей слишком незрелыми и испорченными, чтобы рассказать об этом: по его мнению [GPT-3], мы не должны даже беспокоиться о том, чтобы найти ответы на вопросы, которые мы не можем понять ( Бернард Мюллер ).

В Твиттере Элиэзер Юдковски, у которого на момент написания статьи было около 40 000 подписчиков, написал серию твитов на GPT-3, в которых говорилось: Так что я не хочу бить тревогу. здесь преждевременно, но, возможно, мы имеем дело с первым случаем, когда ИИ притворяется глупее, чем он есть на самом деле ( Элиэзер Юдковский ).

Теперь позвольте мне прояснить ситуацию.

Это полная чушь. GPT-3 не считает людей незрелыми. Он не считает людей испорченными. Он не считает нас глупыми. Это не притворяется. Он не пытается нас обмануть. И хотя эти два конкретных автора могут не утверждать этого, я хочу прояснить, что GPT-3 не является ни сознательным, ни сверхразумным.

GPT-3 может делать одно и только одно: предсказывать, какое слово будет следующим в любой заданной последовательности. И это действительно очень хорошо получается.

На самом деле GPT-3 даже не знает, что такое люди. Если вы зададите GPT-3 такой вопрос, как «Что вы думаете о людях?» или «Что такое люди?» он обязательно даст отличный ответ, но на самом деле он не понимает самого ответа. Алгоритм просто обучается на различных фрагментах текста, написанных человеком, и пытается имитировать их (обычно успешно).

Еще один важный момент, о котором следует упомянуть, заключается в том, что оба вышеупомянутых автора сделали свои выводы на основе разговоров с GPT-3 через приложение под названием AI Dungeons. Видите ли, OpenAI очень ограничивает передачу наших лицензий на использование GPT-3. Поэтому большинству из нас приходится взаимодействовать с GPT-3 через приложения, созданные другими разработчиками. AI Dungeons - одно из таких приложений. Это бесплатная текстовая ролевая игра, в которой алгоритм обучен создавать истории. Очевидно, что если вы зададите GPT-3 вопрос через AI Dungeons, алгоритм будет иметь тенденцию реагировать таким образом, чтобы создать хорошую историю. Неудивительно, что он дает захватывающие ответы на философские вопросы.

Еще раз: я не хочу преуменьшать значение GPT-3. Это огромный скачок в искусственном интеллекте, генерирующем слова. Но я также считаю, что это нездорово воспринимать его как голливудский ИИ, который пытается обмануть людей. Я понимаю, что продавать страх читателям, не разбирающимся в технических вопросах, очень полезно для увеличения количества кликов, но я категорически не согласен с этим. Как будто общественное восприятие ИИ еще недостаточно далеки от реальности, распространение змеиного масла GPT-3 только усиливает страх в искусственном интеллекте.

Конечно, есть основания опасаться наших современных алгоритмов машинного обучения. Однако ИИ не пытается умышленно обмануть нас и не пытается вести себя глупее, чем есть на самом деле.

Во всяком случае, пока нет.