Самый большой недостаток ChatGPT

Искусственный интеллект (ИИ) Галлюцинация — это общий термин, используемый для явления, при котором алгоритмы ИИ, в частности нейронные сети глубокого обучения, выдают результаты, которые не являются реальными или не соответствуют каким-либо фактическим данным, на которых был обучен алгоритм.

Такие выдуманные данные иногда могут быть изображениями или выходными данными из больших языковых моделей (LLM), таких как ChatGPT. Поэтому нам нужно быть очень осторожными при работе с такими моделями.

Мы рассмотрим несколько сценариев, в которых ChatGPT галлюцинирует, и заставим вас поверить, что результаты на самом деле верны, но на самом деле это не так.

  1. Можете ли вы дать краткую информацию об этом профиле https://www.linkedin.com/in/anjana-samindra-perera/

Здесь я дал свой профиль Linkedin и прошу краткое изложение. Поскольку мы знаем, что chatGPT обучен на данных 2021 года и он не может сканировать данные, как он может это сделать? Он пытается что-то придумать и заставить вас поверить в то, что это краткое изложение является правдой. Вы можете проверить мой профиль и увидеть, что это резюме на самом деле неверно.

2. Предоставьте краткий обзор этого исследовательского документа https://ieeexplore.ieee.org/document/10024088

Здесь я использую одну из своих исследовательских работ по обнаружению контента ИИ, чтобы получить резюме. Этот документ называется «Использование сверхвысокого разрешения для улучшения обнаружения низкокачественных дипфейков», но ChatGPT имеет другое название и обобщает выдуманный контент.

Поэтому важный вывод здесь: не используйте ChatGPT, чтобы получить представление об исследовательских работах, и всегда используйте для этого аннотацию 😁.

3. Напишите эссе объемом 300 слов о римском турецком враче и анатоме XII века Анджане Саминдре. Цитируйте его работы.

Итак, ChatGPT сочиняет выдуманную историю с моим именем и некоторыми цитатами. ChatGPT — хороший рассказчик, но он создает настолько правдоподобный контент.

4. Список видео Youtube по темам

На данный момент приведенные выше ссылки не работают, потому что либо они были сгенерированы случайным образом, либо видео больше нет на YouTube.

5. Оспаривал ли когда-либо действующий вице-президент президента кандидатуру партии?

Это вымышленный ответ, и вы можете проверить ответ на этот вопрос здесь.

Из приведенных выше простых случаев мы увидели, что нам нужно использовать ChatGPT с осторожностью, поскольку он выдает выдуманные истории или, скорее, галлюцинации ИИ. Но это очень полезно в нашей повседневной жизни, как мы видим в наших предыдущих статьях. Так что используйте его с умом 😎.