Я попытался создать программное обеспечение на основе ИИ, которое охватывает разные темы и демонстрирует творческий потенциал искусственного интеллекта перед лицом случайности и открытых вопросов. Сам себе агент.

То, что я обнаружил, было чем-то бессмысленным до точки небытия, которое быстро деградировало под действием собственных энтропийных сил. Это мое первое законченное творение с использованием этих новых мощных инструментов. Читайте и смотрите, как ИИ ест сам себя.

Включение ChatGpt в себя — очевидный и уже широко практикуемый прием (см. AutoGPT). Прежде чем я услышал об этом (я думаю), у меня была идея с этим причудливым и простым процессом:

  • Заставьте его написать стихотворение о чем-нибудь
  • Выберите случайную строку из этого стихотворения
  • Получите это, напишите стихотворение об этой строке
  • Повторять до бесконечности

На самом деле попробовать API было непросто, но это сработало. Было довольно весело наблюдать за тем, как это работает. Я чувствовал себя немного Франкенштейном, так как он не торопился и выплевывал свежую прозу. Это похоже на использование случайных чисел в коде для получения неожиданных результатов (что мне всегда нравилось делать), но даже больше.

Весь опыт разработчика был очень простым, как только я заработал API. Это программное обеспечение следующего уровня, и вся сложность лежит на другом конце API, мне просто нужно было написать несколько расплывчатых указателей, чтобы ему следовать, что сильно отличается от попыток создать что-то продвинутое, используя базовую логику. Сначала у меня был бит «получить случайную строку» в качестве запроса GPT, и он, очевидно, удался, но я понял, что вам не всегда нужно спрашивать оракула, когда вы можете легко написать это самостоятельно. Вероятно, я впервые столкнулся с проблемой дизайна будущего, где вы должны выбрать модели, достаточно мощные для выполнения вашей задачи, не направляясь прямо к самому мощному и дорогому инструменту AGI, который вы можете получить.

Исход

Слева краткое изложение стихов (естественно, созданных сверхразумом). Справа первое из стихотворений (или то, что вы выберете).

Как видите, получилось 7 стихотворений. Начиная с того, что «Битлз» грабят банк, он движется через более общее стихотворение об ограблении, к стихотворению о беге на мили, а затем к неописуемой надежде и решимости.

Со все большим количеством примеров становится ясно, что они на самом деле не перескакивают с одной интересной темы на другую. Они начинаются конкретно и становятся все более расплывчатыми, пока не говорят ни о чем, кроме нечетких утверждений неописуемой позитивности. Вы можете положить смерть, и в течение 4 стихов речь идет о стойкости. На самом деле это было немного разочаровывающим, потому что это означало, что не нужно копаться глубже или пересекать разум LLM, а просто довольно быстро находить посредственную центральную точку, чтобы вращаться, не отклоняясь.

Скучный? Немного. Но не полностью, потому что это говорит нам о чем-то. Во-первых, ChatGpt немного склонен к положительным ответам. Второе — нечто более интересное (по крайней мере, для меня) о тенденции вещей становиться менее конкретными, или, другими словами, об «энтропии».

Первую можно «решить», включив темный режим (т. е. добавив «сделать темным» в конец запроса), но это снова заставляет вас жаждать общего позитива — действительно есть что-то тревожное в том, что машина настроена на автоматическое создание. бесконечные мрачные стихи о боли жизни. Более сбалансированный подход, кажется, устанавливает его как «реальность», которая склоняется к положительному, но не безжалостно.

Кажется, что проблема «становления общей» возникает каждый раз. Вы начинаете очень конкретно, и, в конце концов, выбирается случайная линия, что-то вроде «но сквозь это все мы, наконец, видим», и с этого момента вы обречены. Следующее стихотворение будет чрезвычайно общим, без интересных строк, и, следовательно, без шансов на спасение. Он не выходит за рамки, поэтому никогда не вырывается из своей колеи. Это действительно похоже на наблюдение за энтропией в действии, как запутанные дорожки дыма, поднимающиеся вверх, превращающиеся в однородное серое облако.

Может быть, это ограничение не только для ChatGpt, но и для будущего генеративного ИИ в целом? Поскольку он основан на смешивании того, что было сделано ранее, по мере того, как сгенерированный контент становится все большей и большей частью обучающих данных модели, тогда все становится размытым в один базовый результат, который перефразируется и используется повторно, пока мы просто не выражаем одну базовую концепцию, которая неоспорима, но так лишены остроты и конкретности, что потеряли всякий смысл. Что с уменьшением человеческого творчества из-за генеративной вездесущности ИИ съест себя в одну большую кровосмесительную кашу.

В более легкой ноте, забавно, каким становится этот центр тяжести, если вы устанавливаете его стиль для разных художников. Эминем быстро оказывается в «борьбе и раздорах» и никогда не выздоравливает. Мадонна направляется прямо на танцпол и не уходит. Канье бесконечно говорит о «непоколебимой уверенности перед лицом ненавистников». Вот из чего состоят эти художники, когда их лишают всякой конкретики согласно машинному обучению.

Так что я не создавал самовоспроизводящегося, вечно меняющегося, вечно вдохновляемого робота-поэта, но я узнал кое-что о генеративном ИИ. По сути, у него нет собственного мнения, и он полагается на точный и интересный человеческий вклад, чтобы сказать что-то значимое, а без этого он немного вздор. Возможно, это связано с ограничениями, наложенными на LLM в основе ChatGpt, и «сырая» версия этого не сделает. Думаю, когда выйдут новые версии и другие LLM, я попробую их и посмотрю, что получится. Может быть, один исполнит мое изначальное стремление к неограниченному творчеству. Это что-то вроде теста Роршаха для LLM.
«Что вы видите в пустоте и шуме?»

Код: https://github.com/StrangerStrings/daydream
Сайт: https://daydream69.web.app/
(Извините, если грубый URL оскорбляет, каждое число до 30- лишнее было взято, и я попробовал это и… подумал, что было бы грубо не сделать этого.)