Когда я глубже погружаюсь в мир генеративного ИИ, мне вспоминается знаменитая цитата из фильма «Человек-паук» от Marvel. Это настолько же страшно, насколько и фантастично. И я даже не говорю о смене парадигмы рабочих мест и капитала.

«С большой силой приходит большая ответственность» Вольтер («Человек-паук», 1962)

Не поймите меня неправильно, я большой поклонник генеративного ИИ и считаю, что это одна из шестых волн технологического сдвига в истории человечества:

Волна 1: Открытие «огня» › Переход к модели выживания
Волна 2: Изобретение «сельского хозяйства» › Переход к поселению
Волна 3: Изобретение «Паровой двигатель» › Переход к мобильности
Волна 4: Изобретение «Электричество» › Переход к механизации
Волна 5: Появление « Интернет» › Переход к информационной демократизации
Волна 6: Рассвет «генеративного ИИ» › Переход к творчеству и знаниям

Генеративный ИИ все еще находится в зачаточном состоянии, расширяя творческий потенциал человека, повышая нашу производительность и открывая новые горизонты знаний. Тем не менее, мы находимся на переломном этапе принятия технологий и внедрения множества инновационных приложений в нашу жизнь.

С каждой великой (новой) технологией приходят большие проблемы.

Итак, для нашего же блага, давайте подбросим монету и остерегаемся ловушек, с которыми сталкивается Генеративный ИИ (по крайней мере, на данном этапе его эволюции).

— — — Остерегайтесь неверной информации и фактических ошибок

К настоящему времени мы осознаем тот факт, что генеративный ИИ может, мягко говоря, «лгать». Он может представлять неверную информацию (с фактической ошибкой) с удивительным уровнем достоверности, что затрудняет ее понимание. Согласно исследованию, проведенному Стэндфордским университетом, большинство моделей GPT были ниже 30% в «Правдивых и информативных ответах». Это ШОКИРУЕТ!!

«В среднем большинство генеративных моделей правдивы только в 25% случаев» Сравнительный тест TruthfulQA

Неудивительно, что в прошлом году StackOverflow запретил ответы, генерируемые ИИ, на своем сайте.

«Основная проблема заключается в том, что, хотя ответы, которые дает ChatGPT, часто бывают неверными, они обычно выглядят так, как будто они могут быть хорошими, и ответы очень легко создавать» StackOverFlow, декабрь 2022 г.

Чтобы донести мысль, ниже приведено мое недавнее взаимодействие с Bing Chat (на базе GPT-4), в котором я ссылаюсь на неверную информацию о цене акций MSFT.

— — — Моральные и этические проблемы со скрытыми предубеждениями

В мире моделирования мы часто слышим о Garbage In ›› Garbage Out

Честно говоря, как энтузиаст ИИ, это довольно стойкое утверждение для ИИ. Сказав это, на самом деле это означает, что, как и у людей, модели машинного обучения имеют врожденные предубеждения, встроенные в них. Эти предубеждения проникают в исходные данные, используемые при обучении модели (даже без присмотра). Не остались в стороне и генеративные модели ИИ. В недавнем исследовании, проведенном textio, модель ChatGPT (GPT-3) продемонстрировала гендерную предвзятость в использовании местоимений в генерируемых ИИ отзывах о производительности труда для разных ролей. ChatGPT предполагает, что «она» на 100% соответствует воспитателям детского сада, а «он» на 100% соответствует строителям. Это явно необъективно и просто НЕПРАВИЛЬНО!!

— — — Социально-политические проблемы с дипфейками

Генеративный ИИ способен генерировать глубокий поддельный контент (изображения или видео), который может быть (неправильно) использован злоумышленниками и враждебным государством (государствами), разрушая социальную и политическую среду любой нации. Демократии обычно находятся в опасности.

«…глубоко фальшивое видео, в котором политический кандидат говорит или делает что-то, чего он на самом деле не говорил и не делал» AI Multiple, январь 2023 г.

Это одна из самых больших проблем в эпоху генеративного ИИ, которая рано или поздно взорвется.

«90–95% дипфейковых видео, циркулирующих с 2018 года, были созданы из порнографии без согласия». Sensity AI, январь 2023 г.

— — — Вопросы авторского права в сфере собственности и ответственности

Кому принадлежит контент, созданный ИИ? Кому принадлежат авторские права на контент, используемый при обучении моделей ИИ? Кто отвечает за результаты ИИ?

Вот некоторые из основных вопросов, оставшихся без ответа, которые власти должны обсудить и обдумать. Прямо сейчас Генеративный ИИ, кажется, находится в серой зоне ответственности. С точки зрения авторских прав на контент модели ИИ не имеют права, потому что они являются технологическими продуктами (а не результатом человеческого творчества).

В отсутствие творческого вклада человека произведение не подлежит охране авторским правом. В результате Бюро регистрации авторских прав США «не зарегистрирует произведение, созданное с помощью автономного инструмента искусственного интеллекта». Форбс, декабрь 2021 г.

«Правильно цитировать контент, созданный ИИ, — это нормально», Forbes, декабрь 2021 г.

— — — Галлюцинации нереального и иррационального содержания

Мы слышали о моделях ИИ, галлюцинирующих, как следует из этого термина, дающих реакцию, которая кажется правильной, но либо нереальной, либо иррациональной.

«Галлюцинации ИИ проявляются, когда системы ИИ создают что-то, что выглядит очень убедительно, но не имеет оснований в реальном мире», — Грег Костелло, технический директор Huma.ai.

«Искусственный интеллект на самом деле намного сложнее и менее предсказуем» Cubernews, март 2023 г.

«Точно так же галлюцинация возникает в ИИ, когда модель ИИ генерирует выходные данные, которые отклоняются от того, что можно было бы считать нормальным или ожидаемым на основе увиденных данных обучения», — Грег Костелло, технический директор Huma.ai.

— — — Централизация власти и установление правил немногими

Модели фундамента астрономически дороги, поскольку для их создания требуется массивная инфраструктура. В мире найдется несколько организаций, которые могут тратить в таком масштабе. Так что страх перед централизацией власти и привратником вполне реален. По мере того как эти модели все глубже проникают в нашу жизнь, немногие организации смогут контролировать результаты чаще, чем другие.

Ниже визуально показано, чего мы можем ожидать. Сегодня самой ценной компанией, занимающейся генеративным ИИ, является OpenAI, которая обогнала всех своих конкурентов вместе взятых в 2 раза. И это, вероятно, лишь верхушка айсберга. С появлением Google, Facebook (Meta) и Amazon проблема реальна.

«Высокая стоимость машинного обучения — неудобная реальность в отрасли, поскольку венчурные капиталисты присматриваются к компаниям, которые потенциально могут стоить триллионы, и к крупным компаниям». CNBC

Подводя итог, можно сказать, что Генеративный ИИ находится на пороге революции в том, как мы создаем, работаем и проверяем. Отправляясь в увлекательное путешествие по неизведанному и неизведанному, помните: «С великой силой приходит и большая ответственность. Всегда".

«Миру нужны более строгие этические правила для искусственного интеллекта: это вызов нашего времени». ЮНЕСКО

В завершение я спросил ChatGPT «Расскажите мне о подводных камнях генеративного ИИ» и, к моему удивлению (или не очень), обнаружил, что GPT знает об этом. Это интересно !!

Ответ от ChatGPT.
Генеративный ИИ относится к типу искусственного интеллекта, который может генерировать новый контент, например изображения, видео, музыку или текст, который имитирует стиль и структуру существующих данных. . Хотя генеративный ИИ имеет много потенциальных применений и преимуществ, есть также несколько подводных камней, о которых важно знать, в том числе:

Предвзятость. Генеративные модели ИИ могут воспроизводить предвзятость, присутствующую в обучающих данных, что может привести к созданию дискриминационного, оскорбительного или вредоносного контента.

Отсутствие контроля. В отличие от других форм ИИ, генеративный ИИ может создавать неожиданный и непредсказуемый контент, что затрудняет контроль и управление.

Вопросы интеллектуальной собственности. Поскольку генеративный ИИ может создавать контент, имитирующий существующие данные, могут возникать юридические проблемы, связанные с авторскими правами, товарными знаками и интеллектуальной собственностью.

Неправильное использование. Генеративный ИИ может использоваться в злонамеренных целях, например для создания фальшивых видеороликов или фальшивых новостей, что может иметь серьезные последствия для отдельных лиц, организаций и общества в целом.

Ограниченное понимание: многое еще предстоит узнать о том, как работает генеративный ИИ, а это означает, что могут быть непредвиденные последствия или побочные эффекты, которые еще не изучены.

В целом, хотя генеративный ИИ обладает огромным потенциалом, важно знать об этих ловушках и предпринимать шаги для снижения рисков, связанных с этой технологией. Восстановить ответ

— — — — — — — —Об авторе —›
Обладая более чем 17-летним профессиональным опытом, Гаурав провел последние 7 лет, создавая высокотехнологичный продукт в сфере принятия решений ( Diwo) с потрясающей командой. Он энтузиаст ИИ, стремящийся оседлать 6-ю волну трансформации и наделить следующее поколение силой генеративного ИИ. Вы можете связаться с ним в Медиум: Гауй | LinkedIn: Гаурав Джохари | Твиттер: GauJ