Технологии развиваются с искусственным интеллектом во главе, и это порождает появление других явлений. Случай с Deepfakes — хороший тому пример.

Что такое дипфейки? Их название происходит от комбинации глубокого обучения + фейков и в основном состоит из манипулирования человеческими лицами в видео с использованием искусственного интеллекта.

Как и все новые разработки, она вызывает удивление и опасения. Они родились как шутки, в которых мы могли видеть, как Барак Обама или Владимир Путин произносят речи, которых они никогда раньше не произносили, или версии таких фильмов, как «Сияние» или «Терминатор» с участием другими актерами. Однако с развитием эти лица выглядят все более и более реальными.

Многие специалисты по коммуникациям предупреждают нас, что это оружие может быть, по их собственным словам, «разрушительным» с точки зрения дезинформации в будущем. , например, результаты политической кампании. Как всегда, опасны не технологии, а «что» и «как» они используются.

Мы входим в новую парадигму, понимая, что то, что мы видим своими глазами, может быть нереальным.

Немного истории

28 декабря 1895 года в Париже братья Люмьер дали первый в истории кинопоказ, и изображение прибытия поезда напугало присутствующих, которые думали, что они будут раздавлены им.

30 октября 1938 года Орсон Уэллс (в том числе Гражданин Кейн) во время эпизода «Театра Меркьюри в прямом эфире» транслировал по радио «Войну миров». Это заставило многих из тех, кто слушал, поверить в реальность вторжения инопланетян на Землю.

Это был парадигмальный случай, демонстрирующий огромную власть СМИ в первые десятилетия 20-го века.

В обоих случаях люди, потреблявшие контент, верили, что это реальность.

Во-первых, потому что это была новая среда, которую они не знали. Во втором случае, потому что у них не было мышления, что медиум был способен передать что-то, что не было правдой.

"Этот носитель передает речь, и эта речь не имеет шансов на манипуляцию".

Как и десятилетия назад с письменным словом, с устным дискурсом и фотографией, человечество поняло, что ими можно манипулировать для определенной цели (хотя сегодня это все еще самый большой двигатель дезинформации), необходимо снова осознать, что аудиовизуальное изображение может быть ложным с точки зрения необработанного выстрела; манипулирование с помощью монтажа так же старо, как первые достижения кинематографа в первые десятилетия прошлого века.

Поскольку я увлечен этой темой и слежу за ней уже некоторое время, я решил провести опрос среди своих коллег в области коммуникации и аудиовизуального дизайна, чтобы узнать, осведомлены ли они об этой проблеме.

Я был удивлен, обнаружив, что почти 50% из более чем 40 человек, с которыми я консультировался, не знали, что такое Deepfake.

Тревожно то, что речь идет о людях из этой отрасли. Представьте себе случаи, когда люди принадлежат к отраслям, далеким от темы.

Первые спорные дела

Это не заставило себя долго ждать, несколько месяцев назад в США был случай, который произвел настоящий фурор, в сети было распространено видео Нэнси Пелоси (спикер Палаты представителей Демократической партии), которое она казалось, что в пьяном виде у него возникли трудности с дикцией. Даже Дональд Трамп и Рудольф Джулиани (бывший мэр Нью-Йорка) написали в Твиттере об этой новости и были возмущены состоянием Нэнси.

Но это была неправда: видео было сфабриковано, показывая очень специфические моменты пресс-конференции, на которой Пелоси заикалась, и, хотя это не был дипфейк, поскольку его лицо не было изменено, время было замедлено. видео.

Он служил для демонстрации силы и того, как легко что-то в этом стиле может быть вирусизировано и как даже люди с высокой властью могут попасть в ловушку.

Вирусный и развлекательный контент

Но не все так мрачно в будущем дипфейков, они представляют собой отличный ресурс для развлечения и контента.

Даже в таких фильмах, как «Изгой-один: Звёздные войны.

Позволяя нам представить и сделать футурологию, если мы подумаем, например, о видео, которые были сделаны вирусными с Джимом Керри в «Сиянии» или Сильвестром Сталлоне в «Терминаторе», могли бы существовать в будущих фильмах, где у вас могут быть разные варианты актеров в главных ролях? Всего одним щелчком мыши мы могли выбрать актера, который нам больше всего нравится, чтобы сыграть этого персонажа.

Также разрабатываются образовательные проекты с голограммами, и если это делается с этической ответственностью, возможности могут быть бесконечными.

Современное состояние

Вернемся к текущему моменту: Samsung работает над технологией, позволяющей создавать видеоролики всего из одной фотографии.

А в Китае приложение «Zao», которое было самым скачиваемым в 2019 году в этой стране, позволяет вам поместить свое лицо в известные сцены голливудских фильмов и сериалов.

Эту технологию взяла на заметку даже порноиндустрия, где публиковали фейковые видео «с участием» известных актрис и моделей, таких как Галь Гадот («Чудо-женщина»).

Хотя эта технология еще только рождается и ролики еще достаточно ненадежны и можно увидеть их подделки, незадолго до этого очень сложно заметить, что оно настоящее, а что нет.

К счастью, также ведется работа над программным обеспечением, которое может обнаруживать видео, которыми манипулировали, даже такое легкое и простое, как расширение для браузера.

Продвижение нельзя остановить, но мы можем все больше и больше осознавать, что любой речью можно манипулировать, и что наша критическая натура должна преобладать, чтобы бросить ей вызов и не попасть в ловушку .