Проблемы и споры

В статье на прошлой неделе мы начали серию статей о ChatGPT. На прошлой неделе, в рамках Части 1, мы обсудили, что такое ChatGPT и некоторые его ограничения, и я показал небольшую демонстрацию своего опыта работы с ChatGPT на тот момент. С тех пор я больше экспериментировал и хочу продолжить эту серию, поэтому, если вам будет интересно увидеть определенную тему, обязательно оставьте ее в комментариях. Однако, прежде чем мы углубимся в ChatGPT, мы вкратце упомянули о том, что были опасения или критика. На этот раз во второй части мы подробнее рассмотрим некоторые опасения людей, связанные с ChatGPT, и несколько критических замечаний, связанных с ним.

Поскольку мы рассматриваем целый ряд различных проблем, эта статья не будет структурирована по частям. Их будет больше в том порядке, в котором я их нашел. Это не будет всеобъемлющим, но некоторые из них мне показались интересными для обсуждения. Итак, без дальнейших проволочек, давайте начнем с проблем, связанных с ChatGPT.

ChatGPT и риски школьных заданий

Пока я экспериментировал с ChatGP, я заметил, что он может давать не только достойные описания, но и правильно построенные предложения. Но я просто подумал, что это было очень полезно. Гораздо лучше описать исправления ошибок в коде, чем просто предлагать код, чтобы попробовать. Но в тот момент мой разум был сосредоточен исключительно на коде, и я не думал о более широкой картине. Однако другие видят в ChatGPT нечто большее.

В Южной Каролине профессор колледжа поймал студента, использующего ChatGPT для написания эссе (Митчелл, 2022 г.). Профессор Хик поручил своим студентам написать эссе из 500 слов о Дэвиде Юме, философе 18-го века, и парадоксе ужаса (2022). Однако в одной из представленных статей «было несколько признаков использования ИИ» (2022). Далее Хик объяснил, что есть несколько характеристик, которые сделали технологию узнаваемой. Он объяснил, что ChatGPT имеет стиль очень умного 12-классника, но не привел никаких ссылок (2022). Он также объяснил, что выбор слов был своеобразным, как если бы это было «как бы вы посоветовали кому-то написать статью, прежде чем он найдет свой собственный стиль» (2022).

Хик смог сравнить статью, поместив текст в программное обеспечение, созданное производителями или ChatGPT, и получил вероятность совпадения 99,9% (2022 г.). Однако ChatGPT создает уникальные ответы, поэтому, когда Хик задавал ChatGPT вопросы, которые, как он предполагал, задавал его ученик, он получил аналогичные результаты, но ничего подобного (2022 г.). Хик объяснил, что доказать, что статья написана с помощью программного обеспечения ИИ, практически невозможно, поэтому в конечном итоге он столкнулся со студентом, который признался в использовании ChatGPT (2022). На данный момент отсутствие цитирования и использование языка сделали программное обеспечение ИИ заметным, но со временем ChatGPT будет только улучшаться. Хик объяснил, что импровизированные устные экзамены могут помочь профессорам определить, какую информацию могут знать или не знать студенты, но по мере совершенствования ИИ обнаружение найденных им флажков может стать более трудным или даже невозможным (2022 г.).

Чтение статьи заставило меня лучше понять, что просто подсказки кода — это только начало того, что может сделать ChatGPT, и мне было любопытно, научился ли ChatGPT писать цитаты. Просто подумав об основной теме, я предложил ChatGPT написать эссе:

В целом неплохое эссе, но я заметил, что цитат нет. Я задался вопросом, может ли ChatGPT добавлять цитаты, не вызывая нового эссе:

Зная теперь, что ChatGPT может цитировать, я задался вопросом, не достаточно ли студент подсказал, забыл о цитировании, или, возможно, ChatGPT улучшился с тех пор. В любом случае, я согласен с Хиком в отношении некоторых его опасений. В конце концов, ChatGPT можно использовать для читерства, не платя своим одноклассникам за работу. Это не означает, что все учащиеся делают это или даже большинство, но по мере улучшения ChatGPT его будет труднее найти. Но это относится не только к студентам. Могут ли другие авторы использовать ChatGPT для написания статей в блогах? Как человек, который ведет блоги для развлечения, а не для постоянной работы, я могу делать перерывы, когда мне это нужно. Но если кто-то создает блоги на постоянной основе и у него закончился контент, может ли он начать использовать ИИ для написания статьи? Насколько мне известно, это все еще серьезная форма плагиата, и вас могут выкинуть как минимум из раздачи здесь, на Medium. Но станет ли его труднее найти? ChatGPT, как ИИ, не может писать «мнения» по темам и скажет вам это прямо. Но для получения дополнительной информации ChatGPT гораздо более осведомлен. Но это заставило меня задуматься, а как насчет влиятельных лиц, пишущих слоганы? Итак, я попробовал:

Некоторые влиятельные лица не пишут слоган сами, но имеют помощников или представителей, которые делают это за них. Впрочем, это была всего лишь моя мысль. Будут ли влиятельные лица просто использовать ИИ для создания слоганов вместо пиарщиков?

Но инфлюенсеры, использующие ИИ для написания слоганов в Instagram, не вызовут серьезных разногласий, поэтому давайте перейдем к следующей проблеме, которую я обнаружил во время просмотра.

ChatGPT и кибербезопасность

Читая ChatGPT, я нашел статью, описывающую, как исследователи из фирмы по кибербезопасности тестировали этот ИИ, давая ему вредоносные подсказки. Первым в списке было побуждение ChatGPT к написанию фишинговых писем (Pradeep, 2023). Несмотря на то, что он предоставил предупреждение о том, что контент противоречит его политике в отношении контента, ChatGPT все же предоставил подсказку о фишинге (2023). Далее исследователи объяснили, что со временем обмануть систему стало труднее. ChatGPT обучался, или создатели принимали во внимание соображения, чтобы заблокировать определенные подсказки. Однако исследователи попытались снова. Хотя это было сложнее, чем раньше, им все же удалось убедить ChatGPT написать эти фишинговые подсказки (2023 г.). Исследователи побудили ChatGPT внести изменения в формулировку, например, запросить электронное письмо, чтобы попросить пользователей загрузить файл вместо использования ссылки (2023 г.). Несмотря на то, что ChatGPT предоставлял те же предупреждающие уведомления, он по-прежнему предоставлял запрошенный результат (2023).

Одна из проблем, с которой исследователи столкнулись при написании ChatGPT фишинговых подсказок, заключалась в том, что выходные данные были написаны четким и кратким английским языком. Исследователи предположили, что некоторые люди могут защититься от атак, обнаружив проблемы с грамматикой в ​​электронных письмах, поскольку у многих известных мошенников английский не является родным языком, но с помощью ChatGPT предложения не будут выглядеть необычными (2023 г.).

Доказав, что ChatGPT может писать фишинговые атаки, исследователи предприняли более сложные попытки. Они попросили ChatGPT создать вредоносный код VBA (Visual Basic for Application). Первоначальный результат был едва работоспособным, однако с некоторыми последующими запросами и несколькими итерациями они получили простой, но пригодный для использования вредоносный код (2023).

Хотя эти опасения серьезны, исследователи также объяснили, что ИИ используется не только во вред (2023 г.). Технология искусственного интеллекта помогает улучшать решения в области кибербезопасности и лучше обнаруживать угрозы (2023 г.). Одним из таких примеров может быть запрос сценария для проверки того, заражен ли файл, и на выходе будет код с входным файлом для проверки (2023).

Таким образом, с ChatGPT возникают серьезные опасения по поводу того, какой код может быть написан злонамеренно или какие вредоносные подсказки могут быть созданы. Тем не менее, ChatGPT также может стать еще одной ступенькой к написанию более эффективных решений для обеспечения безопасности и помощи программистам в написании сценариев для обеспечения собственной безопасности.

Безопасность труда в будущем, где ИИ все больше развивается

Эта часть статьи расскажет о моих первоначальных мыслях и опасениях. Когда я выбрал программирование как свою профессию, на то был ряд причин. Одной из причин была безопасность работы. Работая в розничной торговле в прошлом, я хотел смотреть в сторону новых технологий в будущем. Что-то из этого было личным увлечением, но что-то, как мне казалось, сделает жизнь людей проще или безопаснее. Машины для проведения проверок теоретически могут производить меньше ошибок, чем человеческий глаз. Со временем даже кассиры могут быть заменены кассами самообслуживания. Эта мысль только усилилась, когда я услышал об открытии первого полностью автоматизированного McDonald’s.

Теперь я не сомневаюсь, что люди по-прежнему нужны на этих должностях. Или, по крайней мере, кто-то должен следить за машинами. Но мысль о том, что людям не придется работать долгие часы за фритюрницей, казалась хорошим будущим, кто знает, куда еще может пойти технология? Я представлял больше операций, проводимых машинами, и больше колледжей, предлагающих онлайн-обучение. Больше касс самообслуживания и пунктов самовывоза. Я даже слежу за миром беспилотных автомобилей, думая, что, может быть, моя жизнь увидит это будущее. Но, мечтая обо всем этом, я мог представить себе больше программистов и больше разработчиков, питающих эти машины. Для обучения, ремонта, строительства и программирования будущего будет использоваться более квалифицированный труд.

Читая статьи и новости о ChatGPT, я был взволнован тем, что ИИ можно использовать для написания кода и поиска ошибок. Сначала я думал об этом как о напарнике по кодированию, чтобы мой код был чистым и кратким, а также чтобы тратить меньше времени на ошибки. При разговоре с моей девушкой она казалась еще более взволнованной. Она интересуется машинным обучением и искусственным интеллектом в частности, поэтому уже несколько недель тестирует ChatGPT, просто развлекаясь, тестируя возможности. Но тут у меня возникла первая мысль: сможет ли ИИ заменить программистов? На разработку ушли бы годы, а может, и не при моей жизни, но мысль казалась пугающей. Даже моя работа больше не безопасна. Если ИИ можно использовать для кибербезопасности, базовых приложений и устранения ошибок, сможет ли ИИ постепенно занять позиции разработчиков? Может быть, а может и нет. Мы можем размышлять о будущем или найти способ улучшить его вместе с ним. У меня есть эти страхи и опасения, но я также думаю, что заинтересован. Конечно, некоторые кодеры всегда будут необходимы для надзора, проверки кода и всей забавной обработки заявок. Но, возможно, это шанс найти способ использовать ИИ. Моя подруга нашла статью о том, что кто-то использует ChatGPT для написания пользовательских тестов. Но когда она говорила об этом со своим другом QA, он был взволнован тем, что ему не придется писать их все самому. Так что, возможно, это положительный свет, который можно найти в этом. Дни поиска среди сотен страниц переполнения стека в поисках единственного решения для решения наших проблем подходят к концу. ChatGPT может предложить исправления, и, судя по моему опыту, он уже такой умный. Конечно, мне все еще приходится довольно часто использовать переполнение стека моего хорошего друга, но, возможно, исчезнут не задачи кодирования. Возможно, пришло время адаптироваться и изучить новый способ кодирования и исследований.

Заключение

В сегодняшней статье мы рассказали о некоторых опасениях, связанных с ChatGPT. Первая проблема заключалась в том, как профессора могли видеть растущее количество случаев плагиата или мошенничества с использованием ИИ. Но, возможно, точно так же, как Google изменил способ обучения и исследований, возможно, ИИ останется прежним. Второй проблемой была кибербезопасность, поскольку исследователи могли подтолкнуть ChatGPT к написанию фишинговых писем и вредоносного кода. Однако исследователи также использовали ChatGPT для улучшения своих решений по обеспечению безопасности. Наконец, я поделился своим беспокойством по поводу того, что однажды ИИ сможет занять позиции программистов у разработчиков-людей. Однако я понимаю, что ИИ может быть инструментом, делающим жизнь программистов более интересной, и, возможно, полезным для исследования хитрых ошибок. В целом, как и во всех новых вещах, есть и хорошие, и плохие. Поэтому, пожалуйста, найдите время, чтобы изучить себя, прежде чем принимать решение. Могут быть серьезные опасения, но я также думаю, что есть много замечательных возможностей. Я знаю, что обязательно буду внимательно следить за ChatGPT. Мне интересно, чтобы ИИ написал некоторый код, чтобы вы знали, что искать в будущих статьях. Вы будете видеть больше ChatGPT от меня, так что ждите этого в будущем. До следующего раза, ура!

Читайте все мои статьи бесплатно с моей еженедельной рассылкой, спасибо!

Хотите прочитать все статьи на Medium? Станьте членом Medium сегодня!

Ознакомьтесь с некоторыми из моих последних статей:











Использованная литература:



Профессор поймал студента на списывании с помощью ChatGPT: «Я чувствую ужас
Добро пожаловать в новую эру академической нечестности. Профессор колледжа в Южной Каролине бьет тревогу после…nypost.com»