Генеративно-состязательные сети (GAN) — это простое, но гениальное использование нейронных сетей для создания, казалось бы, человеческих творческих/художественных вещей. Они в основном используются для создания изображений с потрясающе реалистичными результатами.

Во-первых, немного предыстории GAN — для простоты описания я собираюсь рассказать о приложениях GAN к изображениям, но их можно использовать с самыми разными исходными материалами. GAN состоят из двух нейронных сетей, работающих друг против друга — следовательно, враждебных. Одна сеть пытается создать новые изображения, которые кажутся такими же, как исходный материал. Эта творческая сеть известна как генеративная сеть. Напротив генеративной сети находится дискриминаторная сеть, которая пытается определить разницу между фальшивыми изображениями из генеративной модели и настоящим исходным материалом из набора данных. Изначально дискриминатор по сути является случайным и не может отличить настоящее изображение от поддельного. Однако по мере обучения дискриминатор лучше различает и, таким образом, начинает идентифицировать меньшее количество изображений генератора как реальных. Затем генератор обучается на основе результатов дискриминатора, чтобы повысить его точность. Результатом этого обратного процесса является генератор, который может создавать изображения, которые выглядят точно так же, как исходный материал, но полностью отличаются от любого исходного материала — при условии, что изображений достаточно и модель не соответствует данным. (Приведенная выше информация взята с https://skymind.ai/wiki/generative-adversarial-network-gan и https://github.com/carpedm20/DCGAN-tensorflow)

Интересная модель и набор примеров данных, на которые я взглянул, — это DCGAN в Tensorflow Тэхуна Кима, исследователя OpenAI. Глядя на набор данных CelebA, модель использует большое количество изображений лиц и — я бы сказал успешно — генерирует изображения, которые очень похожи на лица. Просто посмотрите на изображения ниже, чтобы убедиться в этом.

Даже если вы не думаете, что эти результаты впечатляют, я думаю, довольно легко увидеть, как развивается эта технология и какие опасности она может представлять. Например, реалистичные копии известных людей вскоре могут быть добавлены в видео таким образом, чтобы они выглядели точно так же, как они сами, но они могли бы говорить все, что хочет автор. Последствия, которые это может иметь для пропаганды или уже растущего использования «фейковых новостей», просто экстраординарны. Тем не менее, я не думаю, что нам следует бояться этой технологии, поскольку это значительный шаг вперед к невероятно продвинутому ИИ, и я думаю, что все, что она делает, — это побуждает нас удвоить внимание к источникам, которым мы доверяем, и сохранять скептицизм в отношении источники.