Технология Deepfake — это метод, который манипулирует видео с помощью мощных компьютеров и глубокого обучения. В результате получилось очень реалистичное видео события, которого никогда не было.

Как появились дипфейки и кто их создал:

Люди узнали о технологии Deepfake, когда пользователь Reddit под ником Deepfakes опубликовал сообщение о том, что он разработал алгоритм машинного обучения (ML), который может легко транспонировать лица знаменитостей. Они предоставили образцы, и вскоре он стал очень популярным, породив собственный сабреддит. Администрации сайта пришлось его закрыть, но к этому времени технология стала общеизвестной и доступной. Вскоре люди стали использовать его для создания поддельных видеороликов, в основном с участием политиков и актеров.

Манипуляции с видео не новы. В 1990-х годах некоторые университеты уже проводили академические исследования в области компьютерного зрения. Усилия в это время были сосредоточены на использовании искусственного интеллекта (ИИ) и машинного обучения (МО) для изменения существующих видеозаписей говорящего человека и объединения их с другой звуковой дорожкой. Программа Video Rewrite 1997 года продемонстрировала эту технологию.

Как работают дипфейки?

Видео Deepfake использует две модели машинного обучения (ML). Одна модель создает подделки из набора данных образцов видео, а другая пытается определить, является ли видео мошенничеством. Когда вторая модель больше не может определить, является ли видео подделкой, то Deepfake, вероятно, достаточно правдоподобен для зрителя. Этот метод называется генеративно-состязательной сетью (GAN).
Искусственный интеллект Deepfake объединяет изображения и аудио для создания совершенно новых кадров для передачи заявлений и сообщений или выполнения действий, которых никогда не было в реальности.

В чем опасность технологии Deepfake?

Технология дипфейков может иметь катастрофические последствия, особенно для общественных деятелей и знаменитостей. Карьера и жизнь могут быть поставлены под угрозу и даже полностью разрушены злонамеренными дипфейками. Люди со злыми намерениями могли использовать их, чтобы выдавать себя за других и эксплуатировать своих друзей, семьи и коллег.

Можно ли обнаружить дипфейки?

Плохо сгенерированные дипфейки можно обнаружить невооруженным глазом. Отсутствие человеческих нюансов, таких как моргание, и детали, которые могут быть отключены, такие как тени под неправильным углом, — это явные признаки, которые обычно легко заметить.
По мере того, как технология становится более продвинутой, а процессы GAN совершенствуются, скоро будет невозможно сказать, является ли видео подлинным или нет.

Инициативы по созданию средств противодействия дипфейкам на основе ИИ продолжаются. Поскольку технология продолжает развиваться, эти контрмеры должны идти в ногу со временем.

В реальном мире также есть положительные приложения Deepfake;

Знаменитая реклама, в которой Дэвид Бекхэм говорит на девяти разных языках, чтобы дать сообщение для кампании «Малярия должна умереть», является примером того, что Deepfake может сделать для преодоления языкового барьера.