Мнение о Deep fake AI и его этических дилеммах; а также как их смягчить.

Предисловие

Это более формальный текст, он был написан таким образом, поскольку я хочу внести реальный вклад в обсуждение Deep fake AI и всех этических проблем, связанных с ним. Таким образом, письмо стилизовано в очень академическом стиле эссе с даже библиографией. Таким образом, удобочитаемость могла быть принесена в жертву в попытке более профессионального представления мысли.

Введение

Рене Декарт, философ 17-го века, предлагает мысленный эксперимент, в котором он предполагает, что существует гипотетический демон, который может заставить человека испытать реальность, которой не существует. Затем Декарт заявляет, что наше восприятие реальности через органы чувств ненадежно и не заслуживает доверия. Сегодня появление Deep fake AI подтверждает утверждение Декарта и даже дает возможность искажать реальность не только гипотетическим демонам, но и специалистам с правильным набором компьютерного программного обеспечения. Deep fake AI, относительно новый процесс редактирования видео, повысил доступность фальсификации медиа. Глубокий фальшивый ИИ позволяет изменять видео таким образом, чтобы его нельзя было отличить от подлинных медиа. Хотя фальсификация СМИ уже существует, Deep fake AI меняет масштаб, масштаб и сложность задействованной технологии. Этот технологический прогресс ставит под угрозу подлинность видео и ставит под угрозу реальность через сенсорный опыт, это еще больше подчеркивает роль широкой публики в осведомленности о правдивости политических видео. Более того, индивидуальное участие становится все более важным не только в содержании медиа, которое мы поглощаем, но также в средствах и способах, в которых оно доставляется. В этой статье я исследую Deep fake AI, исследуя исторические прецеденты фальсификация СМИ, социально-политические отношения Deep fake AI с пользователями технологий и объяснение того, как публичное обсуждение дает ясность в отношении этих ложных рассказов, продвигаемых Deep fake AI.

Изучение исторических прецедентов и анализ примеров из практики

Одним конкретным историческим прецедентом, который исследует фальсификацию СМИ, была безудержная цензура в советское время, чтобы заставить замолчать политических соперников Иосифа Сталина. В книге Дэвида Кинга Исчезает комиссар Кинг отмечает, что столько фальсификаций имело место в сталинские годы… (гл. 1) и что изменение средств массовой информации было средством контролировать общественное восприятие и объем памяти. В частности, Кинг считает, что советские диссиденты, такие как Лев Троцкий, полностью удалены с официальных советских фотографий с помощью аэрографии и закрашивания лиц. Большая причина того, почему манипуляции широкой публикой были столь эффективны в сталинском фотографическом вандализме, во многом объяснялась новизной фотографии того времени. Осведомленность о редактировании фотографий в то время практически отсутствовала, а это означало, что никто не ставил под сомнение подлинность фотографии. Это привело к серьезным социально-политическим разветвлениям, таким как притеснение Левой оппозиции, соперничающей политической фракции внутри России.

Фундаментальная предпосылка, лежащая в основе как Deep fake AI, так и использования Сталиным фотографических манипуляций, позволяющая им эффективно распространять фальшивые новости, - это его новизна. Другой более актуальный и современный пример - Adobe Photoshop; до появления Photoshop в 1990 году изображения по большей части считались надежными доказательствами. Об этом свидетельствует его популярное использование в качестве доказательства в суде, в журналистских материалах и даже в научной литературе. Это изменилось с появлением Adobe Photoshop; Отчасти причина того, что к цифровым изображениям относятся больше скептицизма, связана с тем, насколько доступен Photoshop для работы с этими фотографиями. Простое обладание компрометирующей фотографией или сомнительным изображением больше не является надежным способом установления истины, поскольку фотографию можно было легко подделать. Точно так же Deep fake AI представляет ту же самую доступность, но с большим объемом и изощренностью; как отмечает Джон Флетчер в своей статье Глубокие подделки, искусственный интеллект и некоторые виды антиутопии: новые лица постфактум в Интернете: Глубокие подделки означают, что любой, у кого есть достаточно мощный ноутбук [может] создавать видеоролики, практически неотличимые от подлинной документации (456).

Кстати, упомянутую выше статью очень стоит просмотреть, если не прочитать. Он представляет собой отличное введение в ИИ без математических расчетов и дает несколько отличных выводов о развивающейся дилемме Deep fake.

Я согласен с Флетчером в том, что доступность Deep fake позволила увеличить производство неискренних медиа, однако я не могу согласиться с общей точкой зрения, что кто-либо обладает такой способностью. В основном это происходит из-за высокого технического понимания, которое необходимо иметь для использования программного обеспечения, что отвлекает большинство пользователей, не обладающих такими навыками. Подобно тому, как создание убедительных изображений в Photoshop - это также набор навыков, который необходимо изучить и развить. Возможность использовать Deep fake AI - это отдельный набор навыков, даже без математического понимания, простая реализация алгоритма с желаемым набором данных требует определенного уровня понимания. Кроме того, последствия для этой доступности особенно мрачны, учитывая социально-политические разветвления, которые она имеет. Трэвис Вагнер и Эшли Блювер демонстрируют эти катастрофические последствия в своей статье Настоящее слово больше не реальное, где они пишут: [Глубокий фальшивый ИИ] по-прежнему вызывает особую тревогу, в первую очередь из-за того, что оно овеществляет женское тела как вещь, которую нужно визуально потреблять (33). В статьях обсуждается, как Deep fake AI используется для наложения изображений женщин на видео с порнографией, это женоненавистническое сокращение женщин как сексуальных объектов, которые нужно потреблять, является одной из многих тревожных проблем с Deep fake AI.

По сути, новизна Deep fake AI является ключевой причиной его эффективности как инструмента для фальшивых новостей и создания социально-политической розни, как Кинг показал с фотографиями советской эпохи, однако аудитория также играет решающую роль в сдерживании фальшивых новостей. .

Сложная социально-политическая природа глубокого фальшивого ИИ и способы смягчения ложных нарративов

Индивидуальное агентство становится неотъемлемой частью методологии решения широко распространенной проблемы Deep fake AI. В недавних дискуссиях о поддельном искусственном интеллекте Deep и легитимности СМИ спорный вопрос заключался в использовании ложного искусственного интеллекта Deep девиантами для распространения сомнений и манипулирования общественностью. С одной стороны, такие ученые, как Флетчер, утверждают, что неизбежность доминирования глубокого искусственного интеллекта в новых медиа неизбежна и что «традиционные механизмы доверия и эпистемологической строгости оказываются превзойденными» (457). С другой стороны, ученые, придерживающиеся таких же взглядов, как Вагнер и Блевер, утверждают, что Deep fake AI, хотя и вызывает беспокойство, может быть решен путем повышения цифровой грамотности среди профессионалов в соответствующих областях. По словам Вагнера и Блевера: «[Мы] отвергаем [] неизбежность глубоких фейков ... визуальная информационная грамотность может сдерживать распространение яростных сексистских глубоких фейков» (32). В общем, вопрос в том, неизбежен ли искусственный интеллект Deep fake или решение лежит в пределах технической грамотности.

Я считаю, что паника, связанная с искусственным интеллектом Deep, слегка гиперболизирована, но эта гиперболизация необходима для того, чтобы защитить публику от влияния технологии. Понимание возможных злонамеренных действий, которые могут быть совершены с помощью этого типа технологий, является предостережением, чтобы предупредить общественность. Это само по себе уже является мощным средством борьбы с поддельным искусственным интеллектом Deep и серьезными последствиями, с которыми он связан. Например, доверие к фотографиям было подорвано, потому что общественность узнала, насколько просто использовать Photoshop для обработки изображений. Может показаться, что я предпочитаю подход Вагнера и Блевера к технической грамотности, однако я также согласен с Флетчером в том, что искусственный интеллект Deep неизбежен, и с ним практически невозможно бороться. Кроме того, я также согласен с основным аргументом Флетчера о том, что «критическое понимание онлайн-СМИ и искусственного интеллекта, манипулирующего экономикой внимания, должно аналогичным образом переместиться из периферии в центр нашей осведомленности» (471). Это отличается от аргументов Вагнера и Блевера, поскольку они отстаивают подход, основанный на технической грамотности, тогда как Флетчер просто выступает за осведомленность и внимание. Я вижу преимущества продвижения визуальной информационной грамотности как жизнеспособного решения, особенно с учетом той роли, которую человек играет в распространении фейковых новостей.

В конечном счете, я бы сказал, что осведомленность общественности о Deep fake AI является достаточно мощным механизмом, чтобы уменьшить негативные эффекты. В основном я верю в это, поскольку все, что больше, чем осведомленность, имеет убывающую отдачу, информирование людей об опасностях искусственного интеллекта Deep сродни обучению их обману в СМИ. Хотя некоторые могут возразить, утверждая, что осведомленность общественности также может побудить людей использовать поддельный искусственный интеллект Deep. Я бы ответил тем фактом, что использование Deep fake AI требует глубокого владения и технического понимания программного обеспечения, и что осведомленность общественности по-прежнему позволит распознавать ложные медиа. Это означает, что публичный выпуск Photoshop призывает извращенцев распространять дезинформацию, это просто неправда и требует больше размышлений и усилий, чем большинство извращенцев готовы были бы вложить.

Заключительные замечания

Я изучил Deep fake AI, изучив предыдущие методы фальсификации СМИ, разветвления Deep fake AI в социально-политическом контексте и то, как осведомленность общественности борется с ложными нарративами, продвигаемыми Deep fake AI. Искажение информации - очень актуальная проблема, особенно в культуре, зацикленной на фейковых новостях, где личные записи спорных тем могут спровоцировать политические волнения. Глубокий фальшивый ИИ представляет собой совершенно новый инструмент фальсификации СМИ, однако эти технологические достижения являются просто преемниками подделанных и обманчивых СМИ, которые были до него. Распространители дезинформации, как Кинг обсуждал со Сталиным в советские времена, и внедрение Photoshop искажало реальность задолго до появления Deep fake AI. Более того, широкое освещение Deep fake AI в СМИ может помочь защитить общественность от влияния технологии, поскольку общественность будет знать о ее существовании и выявлять ложные рассказы, продвигаемые фальшивыми новостями. В целом, Deep fake AI угрожает авторитету средств массовой информации, которые мы перевариваем, однако исторические прецеденты и осведомленность общественности могут помочь нам осознать проблему, а также смягчить эти опасения.

Цитируемая работа

Флетчер, Джон. «Глубокие подделки, искусственный интеллект и некоторая разновидность антиутопии: новые лица постфактум в Интернете». Театральный журнал, т. 70, нет. 4, декабрь 2018 г., стр. 455–471., DOI: 10.1353 / tj.2018.0097.

Царь, Давид. Комиссар исчезает: фальсификация фотографий и искусства в сталинской России. 1997. Tate Publishing, 2014.

Вагнер, Трэвис Л. и Эшли Блювер. «Слово« настоящее »перестает быть реальным»: глубокие подделки, пол и проблемы видео, измененного искусственным интеллектом ». Открытая информационная наука, т. 3, вып. 1, 10 июля 2019 г., стр. 32–46., Doi: 10.1515 / opis-2019–0003