Развитие генеративного ИИ, такого как ChatGPT, произвело революцию в том, как мы взаимодействуем с технологиями, предоставив нам сложные инструменты для создания и создания контента. Однако растущая популярность этой технологии также вызвала обеспокоенность по поводу ее потенциальной опасности и влияния на Интернет, каким мы его знаем. От распространения фальшивых новостей и дезинформации до вытеснения человеческого творчества — генеративный ИИ может коренным образом изменить лицо нашего Интернета. В этой истории я хотел бы исследовать опасности генеративного ИИ и его потенциал для формирования будущего онлайн-контента. Я рассмотрю влияние генеративного ИИ на онлайн-ландшафт, обсудив риски этой новой технологии и выделив некоторые шаги и методы, которые можно предпринять для смягчения некоторых негативных последствий.



Возможно, вы пропустили это, но Интернет «умер пять лет назад
Если вы выполните поиск по фразе я ненавижу текстовые сообщения в Твиттере и прокрутите вниз, вы начнете замечать закономерность . Аккаунт на…www.theatlantic.com»



Примеры генеративного ИИ

Генеративный ИИ произвел фурор в различных отраслях, создавая новые возможности для инноваций и творчества. От генерации текста до создания изображений и видео, генеративный ИИ может изменить то, как мы взаимодействуем с технологиями. Вот несколько современных примеров генеративного ИИ, которые подчеркивают его потенциал революционизировать различные области:

1. OpenAI GPT-3: это современная модель генерации языка, которая привлекла значительное внимание своей впечатляющей способностью давать ответы на подсказки на естественном языке. Он использовался для создания статей, эссе и даже твитов. Благодаря своей способности понимать контекст, языковые нюансы и генерировать контент на разных языках, GPT-3 может преобразовать область обработки естественного языка, открывая новые возможности для создания контента и общения. ChatGPT использует GPT 3.5 и предлагает интерфейс на основе чата. Для тех, кто интересуется его ограничениями, ознакомьтесь со статьей, которую я написал об ограничениях ChatGPT.



Для тех, кто интересуется подобными подходами на основе чата, ознакомьтесь со статьей, которую я написал о предстоящем конкурсе ChatGPT.



Я также должен отметить, что хотя ChatGPT в основном основан на тексте, с использованием определенных методов он также может принимать изображения в качестве входных и выходных изображений. Это может еще больше расширить потенциальные генеративные возможности генеративного ИИ на основе чата. Если вам интересно, как это может работать, ознакомьтесь с историей, которую я написал о том, как чат-бот может расширить свою модальность от простого текста до включения изображений.



2. GauGAN от NVIDIA: это генеративная модель искусственного интеллекта, которая может преобразовывать простые эскизы в фотореалистичные изображения. Он использует алгоритмы машинного обучения для распознавания закономерностей в изображениях и генерирует новые изображения на основе введенных данных. GauGAN использовался в различных приложениях, включая дизайн, игры и даже моду. Он может революционизировать то, как художники и дизайнеры создают и сотрудничают, предоставляя им новые инструменты для воплощения своих идей в жизнь.

http://gaugan.org/gaugan2/

3. AlphaFold от DeepMind: это генеративная модель ИИ, которая может предсказывать структуру белков, что является важным шагом в открытии лекарств и исследовании болезней. AlphaFold использует алгоритмы глубокого обучения для анализа и прогнозирования трехмерной структуры белков, что может помочь исследователям понять их функции и разработать новые методы лечения. Благодаря своему потенциалу ускорения поиска лекарств и помощи в лечении болезней, AlphaFold может изменить область медицины и улучшить жизнь миллионов людей.



4. Генераторы изображений, такие как Dall-E от OpenAI: DALL-E — это генеративная модель ИИ, разработанная OpenAI, которая использует алгоритмы глубокого обучения для создания высококачественных изображений из текстовых описаний. Модель работает, получая текстовую подсказку ввода, которая может быть чем угодно, от простого предложения до подробного описания объекта или сцены. Затем DALL-E генерирует соответствующее изображение, соответствующее описанию, используя сложную архитектуру нейронной сети, обученную на обширном наборе данных изображений и текстовых описаний. Хотя возможности DALL-E все еще изучаются и совершенствуются, его потенциальное применение имеет далеко идущие последствия. Модель может трансформировать различные отрасли, от дизайна и искусства до рекламы и электронной коммерции.



Оригинальность

Генеративные модели ИИ, такие как ChatGPT, способны создавать новые и уникальные выходные данные, но качество этих выходных данных может варьироваться и не всегда быть оригинальным. Во многих случаях это может даже привести к плагиату. Одна из причин этого заключается в том, что эти модели в значительной степени полагаются на шаблоны и структуры, которые они извлекли из данных, на которых они обучались. В результате выходные данные, генерируемые этими моделями, могут быть похожи на существующий текст или данные, с которыми они столкнулись во время обучения, что приводит к неоригинальному контенту.

На результат генеративных моделей ИИ также может влиять их обучение и данные, которым они подвергаются. Например, если модель обучается на определенном типе данных, она с большей вероятностью выдаст результат, аналогичный этим данным, даже если технически это не плагиат.

Добавление шума

Использование генеративного ИИ может создать много шума, который людям нужно будет отфильтровать, что может занять много времени и разочаровать. Вывод, генерируемый генеративными моделями ИИ, может быть повторяющимся, не относящимся к теме, вводящим в заблуждение, неточным или даже вредным, что затрудняет просеивание и идентификацию релевантной информации людьми.

По мере того как генеративный ИИ становится все более широко используемым, объем контента, генерируемого этими моделями, вероятно, будет увеличиваться, что усугубит проблему шума. Это требует разработки новых инструментов и стратегий для фильтрации нерелевантного и неточного контента, создаваемого генеративным ИИ.

Искусственный интеллект превосходит людей

По мере того, как генеративный ИИ продолжает развиваться, растет обеспокоенность тем, что в будущем контент, созданный людьми, может легко превзойти контент, созданный ИИ. Это может иметь серьезные последствия для того, как мы потребляем информацию и взаимодействуем с ней.

Одна из основных причин, по которой контент, созданный ИИ, может превосходить контент, созданный людьми, — это скорость и эффективность, с которой генеративные модели ИИ могут создавать текст, изображения и видео. В отличие от людей, которые ограничены такими факторами, как время, ресурсы и креативность, ИИ может генерировать контент круглосуточно, не уставая и не выгорая.

Более того, по мере того, как генеративные модели ИИ становятся все более изощренными и лучше имитируют человеческое творчество и стиль, они, вероятно, будут давать результат, неотличимый от того, что создано людьми. Это означает, что пользователи могут даже не осознавать, что потребляют контент, созданный ИИ, что еще больше стирает грань между контентом, созданным человеком и компьютером.

Поскольку контент, созданный ИИ, продолжает распространяться, существует риск того, что он может заглушить контент, созданный людьми, из-за чего отдельным лицам и организациям будет все труднее выделяться и быть услышанными. Это может иметь серьезные последствия для всего, от маркетинга и рекламы до журналистики и социальных сетей.

Можем ли мы обучить генеративный ИИ оригинальности?

Есть несколько способов обучить ИИ оригинальности, но я бы посоветовал обучить дискриминатор, способный определять оригинальность вывода. Это потребовало бы от людей маркировки результатов на разных уровнях оригинальности и качества и использования этого для определения того, насколько хорош результат и насколько он оригинален. Это потребует от дискриминатора и генератора более актуального понимания того, что является оригинальным, а что нет. Откуда ему знать, что оригинально, а что уже сделано, если он оперирует устаревшими данными?

Авторское право

Генеративные модели ИИ могут создавать серьезные проблемы, когда речь идет об авторских правах и украденных работах. Способность этой технологии создавать контент, похожий на существующую работу, может привести к нарушению авторских прав, непреднамеренно или иным образом. Кроме того, генеративные модели ИИ можно обучать на материалах, защищенных авторским правом, что может еще больше усугубить проблему.

Эти проблемы поднимают важные вопросы, касающиеся прав собственности, атрибуции и использования материалов, защищенных авторским правом. Кому принадлежат авторские права на контент, созданный с помощью генеративной модели ИИ? Как мы можем гарантировать, что использование генеративных моделей ИИ не ущемляет права владельцев авторских прав? Это сложные вопросы, требующие тщательного рассмотрения.



Может ли генеративный ИИ иметь мнение или личность?

Генеративные модели ИИ можно обучить моделировать мнения или личности, но это сложная задача, требующая тщательного проектирования и большого количества данных. Один из подходов заключается в обучении модели на корпусе текстов, который демонстрирует определенное мнение или личностную черту. Затем модель можно точно настроить на меньшем наборе данных, специфичных для поставленной задачи.

Другой подход заключается в использовании таких методов, как передача стиля или анализ настроений, для изменения выходных данных модели, чтобы продемонстрировать определенное мнение или личность. Например, генеративную модель ИИ, обученную генерировать новостные статьи, можно модифицировать для создания статей, ориентированных на определенную политическую точку зрения.

Однако важно отметить, что эти подходы все еще относительно зарождаются и часто требуют значительных объемов данных и тонкой настройки для получения убедительных результатов. Кроме того, существуют этические соображения, связанные с использованием генеративных моделей ИИ для имитации мнений или личностей, поскольку бывает сложно отличить подлинный контент от искусственного.

Следует также отметить, что генеративный ИИ, такой как ChatGPT, имеет политические и расовые предубеждения, поэтому в некотором смысле у всех ИИ есть личность. Просто эти аспекты базовой модели, вероятно, не учитываются при использовании правил, шаблонов или фильтров на основе ИИ.

Борьба с огнём огнём

Генеративный ИИ может усугубить распространение дезинформации, упрощая создание и распространение поддельного контента. Одна из ключевых проблем с дезинформацией заключается в том, что может быть трудно отличить подлинный контент от поддельного, особенно когда он быстро распространяется через каналы социальных сетей.

Генеративные модели ИИ можно использовать для создания поддельных изображений, видео и текста, которые трудно отличить от подлинного контента.

ИИ можно использовать для борьбы с дезинформацией путем разработки алгоритмов, способных отличать подлинный контент от поддельного. Это включает в себя обучение моделей ИИ распознаванию шаблонов и функций, уникальных для различных типов контента, включая изображения, видео и текст.

Модели ИИ можно использовать для анализа изображений и видео с целью выявления признаков манипуляций или фальсификации. Это может включать в себя поиск несоответствий в освещении, тенях и отражениях, а также анализ метаданных, чтобы определить, был ли контент отредактирован или изменен.

После того, как эти модели будут обучены, их можно использовать для анализа нового контента в режиме реального времени, помечая контент, который может быть фальшивым или манипулируемым. Это может помочь предотвратить распространение дезинформации и повысить доверие общественности к онлайн-контенту.

Поиск, учитывающий оригинальность и качество

Когда ИИ создает так много шума, становится необходимым продвигать качественный контент. Здесь методы, аналогичные тем, которые используются для определения оригинальности, могут использоваться для дальнейшей оптимизации для более высокого качества и оригинальности при определении того, какие страницы отображать при использовании поисковой системы или чат-бота на основе поисковой системы.

Один из способов, с помощью которого поисковые системы могут отдавать приоритет контенту, созданному людьми, а не контенту, созданному ИИ, — это внедрение алгоритмов ранжирования, которые отдают приоритет оригинальности и качеству. Это может включать в себя поиск определенных характеристик, которые обычно ассоциируются с высококачественным контентом, таких как согласованность, актуальность и удобочитаемость. Мы уже делаем это в некоторой степени, но использование дискриминаторов, которые могут быстро определить, создана ли страница с помощью ИИ и является ли она оригинальной, может быть хорошим следующим шагом, если она еще не используется.

Например, поисковые системы могут использовать алгоритмы обработки естественного языка (NLP) для анализа содержимого веб-страницы и определения его качества на основе таких факторов, как грамматика, структура предложений и словарный запас. Они также могут искать признаки оригинальности, такие как уникальные идеи или точки зрения, или цитаты и ссылки на внешние источники.

Законодательство не сможет идти в ногу со временем

Технологические достижения быстро меняют наше общество, но законодательство часто с трудом поспевает за ними. Есть ряд причин, почему это так, и понимание этих причин имеет решающее значение, если мы хотим создать правовую систему, способную эффективно регулировать новые технологии. Новые инновации разрабатываются каждый день, и законодателям может быть трудно идти в ногу с последними тенденциями и разработками. Это особенно верно, учитывая сложный характер многих современных технологий, которые могут потребовать узкоспециализированных знаний и опыта.

Законодатели часто сдерживаются политическим давлением и необходимостью достижения консенсуса среди широкого круга заинтересованных сторон. Это может привести к длительным дебатам и компромиссам, которые замедляют законодательный процесс и мешают идти в ногу с быстро развивающимися технологиями.

Кроме того, может возникнуть сопротивление изменениям со стороны укоренившихся интересов, которые могут проиграть от новых технологических разработок. Эти интересы могут лоббировать новые правила или стремиться формировать законодательство таким образом, чтобы это отвечало их собственным интересам, даже если это означает, что законодательство не является полностью эффективным или не соответствует последним технологическим тенденциям.

Наконец, у самих законодателей отсутствует опыт или понимание, поскольку они просто не обладают техническими знаниями, необходимыми для полного понимания последствий новых технологий. Вы когда-нибудь видели, как сенаторы и представители задают вопросы генеральным директорам технологических компаний? Довольно разочаровывает то, насколько необразованными и отсталыми являются многие политики. Это может затруднить разработку эффективного законодательства, которое уравновешивает преимущества новых технологий с потенциальными рисками и недостатками.

Заключение

Мы станем свидетелями эскалации уже начавшейся гонки вооружений. Боты уже использовались для создания поддельных профилей, поддельных подписчиков, а также для искусственного увеличения и изменения метаданных. Использование ИИ только затруднит различение того, что реально, а что нет. Мы не сможем рассчитывать на помощь нашего правительства, поскольку в настоящее время оно не может идти в ногу с изменениями в технологиях. Взрыв информации с ростом контента ИИ только продолжит оставлять их в пыли.

Технологические компании должны должным образом отфильтровывать шум, чтобы люди могли пользоваться интернетом. Однако, если судить по прошлому, они тоже не смогут принять вызов, если на карту не поставлена ​​их прибыль. Вы только посмотрите, как сложно Youtube справиться с вопросами авторского права, и как много Meta возится с модерацией.

В конце концов, мы столкнемся с вопросом: хотим ли мы улучшить контент, который мы потребляем, за счет снижения «производительности»? Кроме того, если контент, который мы производим, не так уж и хорош, действительно ли мы работаем более продуктивно или на самом деле тратим время и ресурсы впустую?

Shameless Plug. Вам нравится научная фантастика и философия? Тогда, возможно, вас заинтересует мой роман Мечтания о смерти с надеждой, который теперь доступен на Amazon в нескольких форматах.