Технологии постоянно развиваются, и ИТ ЕСТЬ везде. Вполне возможно, что вы когда-нибудь встречали слово «DeepFake». «DeepFake» — это одно из творений технологии, которая является относительно новой, очень уникальной, мощной и опасной, если она используется не теми руками. Термин DeepFake относится к изображениям знаменитостей с измененными лицами и трансформациям, размещенным в субреддите под названием «r/deepfakes». Он был придуман после того, как пользователь Reddit с «Deepfakes» в 2017 году опубликовал созданные им Deepfakes, а также другие участники субреддита.

Что такое DeepFake?

Слово «Deepfake» представляет собой комбинацию двух слов — «fake» и «Deep Learning». Глубокое обучение — это область машинного обучения, в которой используются алгоритмы, пытающиеся имитировать работу человеческого мозга. Эти алгоритмы слишком вдохновлены структурой и работой человеческого мозга и называются искусственными нейронными сетями.

Предположим, мы хотим поменять местами лица человека А и человека Б на изображении или видео. Это возможно сделать при условии, что у нас есть набор данных с достаточным количеством изображений обоих людей. Мы можем создать модель, которая использует концепции глубокого обучения (называемые генеративно-состязательными сетями (GAN)), чтобы учиться на основе набора данных восстанавливать лицо человека Б на видео/изображении человека А.

Согласно отчету Forbes, на начало 2019 года в сети было 7964 дипфейковых видео. Всего через девять месяцев после этой даты количество подскочило до 14 678 (исходный отчет Deeptrace tech). Это дает представление о том, как быстро росла эта технология, и с тех пор их число растет в геометрической прогрессии. Основная причина такого быстрого роста использования этой технологии заключается в том, насколько легко создать дипфейк. Да, это правда, что создание Deepfake было новаторским и требовало сочетания уже существующих методов машинного обучения, но как только он был создан, им можно было поделиться с кем угодно. Любой, кто обладает базовыми знаниями в области кодирования, может создать дипфейк, не понимая его фонового процесса.

Использование DeepFake — хорошо или плохо?

Дипфейки не ограничиваются изображениями или видео, звук также может быть преобразован. Дипфейк можно использовать для творчества — в фильме, для создания забавного видео для публикации в Интернете или для создания мема для веб-сайтов социальных сетей. Напротив, большинство приложений дипфейков, которые можно увидеть в Интернете, были ужасающими.

96 % дипфейков в сети были порнографическими (отчет Deeptrace, 2019). Большинство из этих изображений были британскими и американскими актрисами и несколькими артистами K-pop. Дипфейки также являются серьезной проблемой для политики. Дипфейки могут использоваться и использовались для представления политиков в ложном свете, это также может привести к изменению результатов выборов, если они используются противоположной стороной, чтобы вызвать непонимание среди широкой общественности. Дипфейки также использовались для мошенничества: в 2019 году британская фирма была обманута на 220 000 евро в ходе телефонного звонка с использованием дипфейкового аудио.

Эти события являются достаточным примером того, почему технология, обнаруживающая дипфейки, важна даже для общественности.

Обнаружение дипфейков

Дипфейки, если они созданы с использованием достаточного количества данных, почти невозможно различить невооруженным глазом. Не существует определенного способа обнаружить дипфейк, но дипфейки обычно оставляют определенные артефакты, которые мы можем использовать в своих интересах. Волосы на лице, тени на лице в зависимости от окружающей среды, отражение глаз, блики в очках, морщины и другие признаки старения, такие как цвет волос. Это определенные артефакты, которыми дипфейк может с трудом манипулировать правильно. Для обнаружения этих артефактов могут быть созданы модели обнаружения дипфейков, но, конечно, обнаружить дипфейк не так просто, как создать его.

Проблема обнаружения дипфейков (DFDC)

Kaggle Challenge был организован партнерством Amazon, Facebook и Microsoft, чтобы побудить программистов и исследователей во всем мире разработать свой подход к обнаружению дипфейков. Призовой фонд этого соревнования Kaggle составил 1 000 000 долларов. Многие исследователи придумали собственное решение этой глобальной проблемы. Самым эффективным кодировщиком был алгоритм Google EfficientNet.

Лучший исполнитель Селим Сефербеков сказал, что базовый подход покадровой классификации работает для него лучше всего. Он использовал MTCNN (многозадачные каскадные сверточные сети) для обнаружения лиц на изображении/видео и EfficientNet для кодирования признаков. Другими замечательными кодировщиками были ExceptionNet, ResNet и MesoNet. Все они имели свои преимущества.

Заключение

Глубокие подделки производятся со скоростью, которая намного превышает скорость, с которой их можно обнаружить. В будущем в этой области требуется больше работы и исследований. Только тогда мы можем чувствовать себя в большей безопасности, загружая наши личные фотографии/видео через Интернет.