Если вы спросите ChatGPT, на каких данных он обучался, он даст следующий ответ:

«Являясь языковой моделью ИИ, мои ответы генерируются на основе сочетания лицензированных данных, данных, созданных тренерами-людьми, и общедоступных данных. Меня обучали работе с самыми разными текстами из Интернета, включая книги, статьи, веб-сайты и другие письменные источники».

Неясно… верно?

Фактически, OpenAI не раскрывает публично свои точные источники, и это не единственная компания, занимающаяся искусственным интеллектом, которая двусмысленно относится к библиотекам данных. Управление по защите данных Италии запретило использование модели ИИ «пока ChatGPT не будет соблюдать конфиденциальность». Модели машинного обучения такого масштаба должны быть обучены на огромном количестве информации, но много ли мы на самом деле знаем о нашей роли в этом процессе?

Это касается не только чат-ботов. Компания Getty Images подала в суд на Stable Diffusion (искусственный искусственный интеллект) за использование обучающих данных, содержащих их изображения без их разрешения. Модель даже создала изображения с логотипом Getty!Это было названо «наглым нарушением интеллектуальной собственности Getty Images в ошеломляющих масштабах

И есть так много других вопросов, когда речь заходит об авторском праве в ИИ — кому принадлежат произведения искусства, созданные с его помощью? Считается ли он интеллектуальной собственностью, если он не был создан человеком? Компании, которые не берут на себя ответственность или скрывают свои процессы обучения, чтобы быть более конкурентоспособными, рискуют оттолкнуть своих клиентов. Поскольку многие представители общественности уже не доверяют ИИ, можем ли мы придумать лучший способ?

Тем не менее, каков наш компромисс? Если мы закроем диапазон данных, используемых в целях обучения, мы получим предвзятый ИИ, который в чужих руках может быть в десять раз хуже. Мы видели образец наивности, когда дело доходит до веры в то, что вы читаете в Интернете, и недавние исследования показали, что чат-боты ничем не отличаются.

Исследование, проведенное в Университете Адама Мицкевича в Познани, привело к такому утверждению: «Люди настолько доверяют ему, что даже в кризисной ситуации, когда необходимо принять решение о человеческой жизни, они могут некритически делать все, что предлагает ИИ. , несмотря на то, что он постулирует что-то совершенно абсурдное».

Так что теперь у нас есть предвзятый ИИ и население, которое верит его лжи.
Например, печально известный Microsoft Tay — чат-бот, обученный на твитах. В течение 24 часов после запуска чат-бот собрал так много проблемных взглядов населения, с которым он столкнулся, что его твиты стали расистскими, антисемитскими и гомофобными.

Где мы находим баланс? Компаниям нужны реальные данные, созданные реальными людьми, чтобы сделать их продукты как можно более подлинными, но большинство реальных людей не хотят, чтобы их данные были выставлены на обозрение — а как насчет законности всего этого?

В соответствии с GDPR (Европейский общий регламент по защите данных) пользователи имеют право знать, использует ли компания их данные и для чего — OpenAI не предлагает такой возможности. Не существует общепринятого способа запретить OpenAI использовать свои данные. Наверняка это означает, что ChatGPT не подпадает под действие GDPR?

Дело в том, что крупномасштабные модели, такие как Chat-GPT, вводят совершенно новый уровень проблем с законностью. Многие из действующих юридических определений и руководящих принципов, которые у нас есть, не учитывают возможности подобных программ. Легко понять, как компании могут искажать эти правила, когда правила технически к ним не применимы.

Обеспечение конфиденциальности в эпоху ИИ требует от законодателей, исследователей и инженеров разработки подробных правил, адаптированных к потребностям отрасли. Опережая будущее, мы можем обеспечить нашу способность в полной мере использовать возможности искусственного интеллекта, сохраняя при этом защиту наших сообществ.

Спасибо за ваше время! Если эта статья показалась вам интересной — посетите мою страницу, чтобы узнать больше, или оставьте комментарий со своим мнением. Я хотел бы услышать от вас.