Дипфейки — это синтетические медиа, в которых человек на существующем изображении или видео заменяется чьим-то подобием. Термин «глубокие подделки» представляет собой комбинацию «глубокого обучения» и «фейка». Дипфейки используют мощные методы машинного обучения и искусственного интеллекта для редактирования или синтеза визуальной и звуковой информации, которую легче обмануть, хотя процесс создания поддельного контента не нов. Основные методы машинного обучения для создания глубоких подделок основаны на глубоком обучении и требуют обучения топологий генеративных нейронных сетей, таких как автоэнкодеры или генеративно-состязательные сети (GAN).

Что такое ИИ

Искусственный интеллект (ИИ) использует компьютеры и машины, чтобы имитировать способность человеческого разума решать проблемы и принимать решения. Это позволяет машинам моделировать и даже улучшать возможности человеческого разума. От разработки беспилотных автомобилей до распространения умных помощников, таких как Siri и Alexa, искусственный интеллект становится все более важной частью повседневной жизни.

Как дипфейки используют ИИ

Автоэнкодер — это форма нейронной сети, которая используется в дипфейках. Они состоят из кодировщика, который сжимает изображение до скрытого пространства с меньшими размерами, и декодера, который создает резервную копию изображения из скрытого представления. Дипфейки используют эту архитектуру, кодируя человека в скрытое пространство с помощью универсального кодировщика. Важные подробности об их чертах лица и позе тела содержатся в скрытом представлении. Модель, которая была обучена специально для цели, впоследствии может быть использована для ее декодирования. Другими словами, представление черт лица и тела исходного видео в скрытом пространстве будет наложено на конкретную информацию о цели.

Эту архитектуру можно улучшить, добавив в декодер генеративно-состязательную сеть. GAN развивает состязательные отношения между генератором — в данном примере декодером — и дискриминатором. Дискриминатор пытается определить, сгенерировано ли изображение, в то время как генератор генерирует новые изображения, используя скрытое представление исходного материала. В результате генератор производит чрезвычайно точное представление реальности, потому что любые недостатки будут обнаружены дискриминатором. В игре с нулевой суммой оба алгоритма постоянно улучшаются. В результате дипфейки сложно остановить, потому что они постоянно меняются; всякий раз, когда обнаружен недостаток, его можно исправить.

Применение дипфейков

Un’emozione per semper 2.0, видеоработа мультидисциплинарного художника Джозефа Айерле, была выпущена в марте 2018 года (английское название: The Italian Game). Синтетическая Орнелла Мути из фильмов 1980-х была создана художницей с помощью технологии Deepfake, и она смогла путешествовать во времени с 1978 по 2018 год. Это произведение искусства было упомянуто Массачусетским технологическим институтом в исследовании «Коллективная мудрость». Художница исследовала размышления поколений и проблемы, связанные с функцией провокации в области искусства, используя путешествие во времени Орнеллы Мути. Сцены Кендалл Дженнер были использованы Айерле для технической реализации. Образ Орнеллы Мути, созданный искусственным интеллектом, использовался для замены лица Дженнер в программе.

Дипфейки также можно использовать для улучшения контента. Интеллектуальные гиганты прошлого могут быть включены в видеоролики, чтобы «учить» идеям, которые они написали. Это позволит более интерактивно делиться своими знаниями.

Темная сторона дипфейков

В 2017 году порнография Deepfake была широко распространена в Интернете, особенно на Reddit. Во многих онлайн-дипфейках по состоянию на 2019 год образы женщин-знаменитостей обычно используются в порнографии без их согласия. Согласно опросу, опубликованному в октябре 2019 года голландской компанией Deeptrace, занимающейся кибербезопасностью, 96% всех дипфейков в Интернете были порнографическими. Среди прочего, дипфейк Дейзи Ридли привлек внимание в 2018 году. Британские и американские актеры составляли большинство субъектов дипфейков в Интернете по состоянию на октябрь 2019 года. Большинство южнокорейских субъектов, которые составляют около четверти тем, являются звездами K-pop.

DeepNude, бесплатная загрузка для Windows и Linux, стала доступна в июне 2019 года. Его целью было удаление одежды с фотографий с помощью нейронных сетей, а именно генеративно-состязательных сетей.

Дипфейки могут использоваться для создания документов о вымогательстве, ложно обвиняющих жертву. Согласно отчету Исследовательской службы американского Конгресса, дипфейки могут использоваться для шантажа политических деятелей или любого, кто имеет доступ к секретным материалам для шпионажа или кампаний влияния.

С другой стороны, поскольку подделки невозможно последовательно отделить от подлинных материалов, фактические жертвы шантажа теперь могут утверждать, что настоящие артефакты являются подделками, давая им убедительное объяснение своих действий. В результате традиционная тактика шантажа теряет свою силу, что подрывает лояльность жертв к шантажистам и подрывает их власть. Эта тенденция, которая «обесценивает» фактический шантаж и делает его бесполезным, известна как «раздувание шантажа». Этот шантаж может быть произведен с использованием простого аппаратного обеспечения графического процессора и небольшого программного обеспечения.

Хакатон Зинди

Хакатоны — это фантастический способ исследовать, сотрудничать и работать над решением проблемы в течение определенного периода времени. Большинство хакатонов исследуют решения, связанные с программным обеспечением, на технических мероприятиях, когда люди, особенно программисты и разработчики программного обеспечения, встречаются для участия в совместном кодировании с целью создания полезного программного обеспечения.

Сельскохозяйственный и технологический университет Джомо Кеньятта в партнерстве с Zindi и могущественной школой Jenga организовали хакатон. Хакатон, который пройдет с 21 по 25 ноября 2022 года, будет уникален тем, что участниками будут в основном студенты последнего курса бакалавриата компьютерных наук JKUAT. Хакатон направлен на поиск решений, направленных на достижение Целей устойчивого развития, с использованием искусственного интеллекта.

Интересной идеей для хакатона было бы использование Deepfakes для создания видеороликов с участием выдающихся ученых прошлого. Это значительно улучшит качество образовательного контента, предоставляемого студентам.

Прощальный снимок Для всех тех энтузиастов ИИ, которые тоже хотят принять участие в этом соревновании, присоединяйтесь к хакатону здесь 👇👇

https://zindi.africa/competitions

Об участниках группы

Рафаэль Ндонга — www.github.com/RaphaelNdonga

Кристин Гатуу — www.github.com/cdsilva-g

Брайан Симба — www.github.com/Briann-simba

Уильям Ндунгу — www.github.com/William-Mwangi

Тед Блэр Харчинс — www.github.com/tedblair2

Вы не можете позволить себе пропустить!! До встречи на табло результатов🎇