Осознавая потенциал генеративных моделей ИИ, люди начали заполнять веб-сайты мусором, созданным ИИ, чтобы привлечь внимание рекламодателей.

Когда в прошлом месяце список романтических бестселлеров Amazon Kindle Unlimited для молодых взрослых был заполнен десятками бессмысленных книг, созданных искусственным интеллектом, технический гигант Джеффа Безоса придумал способ монетизировать его.

Осознав потенциал генеративных моделей ИИ, таких как GPT, люди сделали шаг вперед и начали заполнять веб-сайты мусором, созданным ИИ, чтобы привлечь внимание рекламодателей. Согласно отчету исследовательской организации NewsGuard, этот контент направлен на привлечение платных рекламодателей. Компании, стоящие за моделями, генерирующими этот контент, громко заявляли о мерах, которые они принимают для решения этой проблемы, но никакого конкретного плана еще не было выполнено.

Согласно отчету, более 140 крупных брендов в настоящее время платят за рекламу, которая оказывается на ненадежных сайтах, написанных с помощью ИИ, вероятно, без их ведома. В отчете также уточняется, что рассматриваемые веб-сайты представлены таким образом, что читатель может предположить, что они созданы авторами-людьми, поскольку сайт имеет общий макет и содержание, типичные для новостных веб-сайтов. Кроме того, эти веб-сайты четко не раскрывают, что их содержимое создано искусственным интеллектом.

Следовательно, настало время властям вмешаться и взять на себя ответственность не только следить за ложным, но и за нечеловеческим контентом.

Гугл поиск по картинке

Согласно недавнему отчету NewsGuard, ошеломляющие 90% рекламных объявлений известных брендов, появляющихся на новостных сайтах, созданных с помощью ИИ, были навязаны Google, несмотря на собственную политику компании, запрещающую размещение рекламы на страницах, содержащих «спам, автоматически сгенерированный контент». Эта тенденция не только создает угрозу распространения спама в Интернете, в котором преобладают материалы, созданные искусственным интеллектом, но и ставит под сомнение огромное количество денег, потраченных на рекламу.

Ранее в этом году Google выступила с заявлением, в котором подтвердила свою приверженность защите результатов поиска от спама, подчеркнув, что использование контента, созданного искусственным интеллектом, для манипулирования поисковым рейтингом является нарушением политики Alphabet в отношении спама.

На последней конференции Google I/O компания, возглавляемая Сундаром Пичаи, объявила о значительных шагах по выявлению и контекстуализации ИИ-контента, доступного в ее поиске. Хотя такие меры, как водяные знаки и внедрение метаданных, направлены на обеспечение прозрачности и позволяют пользователям различать изображения, созданные ИИ, и аутентичные изображения, они могут применяться только к изображениям, поскольку нет очевидного способа поставить водяные знаки на текст, созданный ИИ.

Массовое производство

Рост ложной информации был серьезной причиной для беспокойства, но теперь монетизация этой деятельности явно резко возросла. Несколько месяцев назад несколько СМИ стали жертвами ложного изображения взрыва возле Пентагона, нанесшего побочный ущерб фондовому рынку США.

С тех пор, как модели генеративного ИИ приобрели популярность в Интернете, появилось много случаев ложной информации — бывший президент США Дональд Трамп, по-видимому, был арестован, или генеральный директор Tesla Илон Маск держался за руку с генеральным директором GM Мэри Барра. Кроме того, кто может забыть Папу Франциска в стильном белом пуховике, разгуливающего с кофе в одной руке? Эти события показывают, насколько сложно будет отделить контент, созданный ИИ, от фактов.

Входящий коллапс модели

В отличие от Google, NewsGuard придумал умный способ идентифицировать ненадежный контент, написанный искусственным интеллектом, в Интернете. Поскольку на многих из этих сайтов отсутствует вмешательство человека, они часто содержат сообщения об ошибках, обычно встречающиеся в контенте, созданном ИИ. Например, на сайте CountyLocalNews.com отображались сообщения типа «Извините, я не могу выполнить это приглашение, поскольку оно противоречит этическим и моральным принципам… Как языковая модель ИИ, я обязан предоставлять фактическую и достоверную информацию». ИИ NewsGuard сканирует эти сообщения, а затем их просматривает человек-аналитик.

Растущий спам, создаваемый ИИ, в Интернете может стать проблемой для компаний, занимающихся ИИ, стоящих за этими моделями ИИ. Причина в том, что основные языковые модели чат-ботов, таких как ChatGPT и Bing, обучаются на общедоступных данных. Поскольку эти наборы данных постоянно заполняются контентом, созданным ИИ, исследователи выражают обеспокоенность тем, что языковые модели станут менее полезными, явление, известное как «крах модели».

Илья Шумайлов, научный сотрудник Группы прикладного и теоретического машинного обучения Оксфордского университета, соавтор «Проклятия рекурсии: обучение на сгенерированных данных заставляет модели забыть» — статьи об этом явлении, считает, что крах «неизбежен» и, возможно, не так уж и плох. «Возможно, мы избавимся от капчи, и быть компьютером в Интернете станет нормой», — сказал он Wall Street Journal, имея в виду головоломки с картинками, которые веб-сайты предлагают, чтобы отличить компьютеры от людей.