По данным Gartner, к 2022 году 30% всех кибератак могут быть нацелены на повреждение данных, которые являются материалом для манипуляций с алгоритмами нейронной сети, а также на кражу готовых примеров машинного обучения. Сегодня кажется, что это все еще в будущем, но в этом году социальная инженерия с помощью дипфейков уже стала реальностью.

Атаки, основанные на использовании нейронных сетей и технологий deepfake (глубокое обучение + фейки), не являются научно-фантастическим трюком или концепцией. Нейронная сеть научилась размещать лица на фотографиях и видео, что выглядит точно и реалистично. Вместе с аналогичной и хорошо реализованной технологией синтеза речи (машинное обучение на основе образца голоса) это становится проблемой, поскольку поддельные видеоролики могут использоваться для ведения информационных войн и совершения киберпреступлений.

Существуют системы синтеза речи с открытым исходным кодом, и в ближайшем будущем киберпреступность может стать массовой. Даже завтра может прийти электронное письмо или сообщение с неизвестного номера телефона, но содержащее видео или голос близких друзей, в котором они просят отправить им деньги на новый номер или кредитную карту. И вы не будете дважды думать. потому что вы слышите, что это ваши друзья. Единственное ограничение, с которым сталкиваются производители дипфейков, - это необходимость собирать и настраивать образцы.

Facebook, Microsoft, Массачусетский технологический институт, Калифорнийский университет в Беркли, Университет в Оксфорде и другие организации объявили конкурс, в котором соберутся разработчики механизмов обнаружения для технологии deepfake. Ирония заключается в том, что глобальные компании могут повысить вероятность мошенничества, поскольку deepfake учится и устраняет неправильные и нереалистичные варианты. Если будет применена дополнительная техника разоблачения, технология на основе ИИ сможет применить ее: чем больше нам удастся выявить дипфейк, тем точнее будет эта технология.

Что касается примеров атак, то в сентябре нам стало известно о первом дипфейк-мошенничестве. Злоумышленники не подделали имидж, инцидент произошел из-за устройства смены голоса. Коллега из Германии позвонил генеральному директору британской компании и попросил его перевести 243000 долларов третьей стороне. Качество дипфейка голоса было настолько хорошим, что мошенник, похоже, не вызывал никаких вопросов или подозрений. Этот случай вызывает обоснованные опасения по поводу использования биометрической аутентификации для финансовых транзакций, что недавно было продвинуто банками. Однако банковский сектор всегда в курсе последних тенденций и учитывает их. Например, в последней версии приложения Сбербанка биометрия по умолчанию была отключена - банк решил, что будет достаточно цифрового кода, проверенного временем.

Пока это был единственный пример, но, вероятно, некоторые еще не известны. Популярные фейковые видео, о которых нам стало известно, не угрожали безопасности людей. Они были нацелены на дискредитацию популярных знаменитостей (интимные видео со Скарлетт Йоханссон и Натали Портман) или демонстрацию возможностей технологии (например, отрывок из фильма «Матрица» с Уиллом Смитом вместо Киану Ривза в главной роли).

Атак на нейросети не было и такой технологии нет, но их появление прогнозируется экспертами. Исследователи из Gartner считают, что к 2022 году 30% всех кибератак будут направлены на повреждение данных, что повлияет на информацию, на основе которой обучается нейронная сеть, а также на кражу уже существующих моделей машинного обучения. Беспилотные автомобили начнут принимать пешеходов за что-то другое, например, за какие-то объекты. Тогда речь пойдет не о финансовых или репутационных рисках, а о жизни и здоровье людей.