Публикации по теме 'adversarial-attack'


Состязательная атака для модели семантической сегментации
Мы живем в том возрасте, когда нас окружают машины, некоторые из которых работают на основе технологий глубокого обучения. Надо признать, что глубокое обучение оказалось успешным. Люди называют это чем-то вроде пузыря, который может лопнуть, но сейчас он решает некоторые важные проблемы, которые раньше казалось почти невозможными для машин. Глубокое обучение дает ответы на некоторые сложные проблемы. Проблемы варьируются от создания описаний для изображений до ответов на вопросы об..

Обзор статьи: «Все, что вам нужно, это низкий (ранг): защита от состязательных атак на графы» в…
Название статьи: Все, что вам нужно, это низкий уровень (ранг): защита от состязательных атак на графы Цитирование статьи: Негин Энтезари, Саба А. Аль-Сайури, Амирали Дарвишзаде и Эвангелос Э. Папалексакис. 2020. Все, что вам нужно, это низкий уровень (ранг): защита от состязательных атак на графиках. На Тринадцатой международной конференции ACM по веб-поиску и интеллектуальному анализу данных (WSDM ’20), 3–7 февраля 2020 г., Хьюстон, Техас, США. ACM, Нью-Йорк, штат Нью-Йорк, США, 9..

Слабое место ИИ: опасности ненадежных несертифицированных моделей
Автономный автомобиль безупречно перемещается по улицам Аризоны, когда внезапно он, кажется, пропускает очевидный знак остановки, проезжает через 4-полосную остановку и врезается в автомобильный переход с другого направления. Причина? Плохой актер наложил на знак нашивку и фильтр, похожий на саран. Человеческий глаз мог легко сказать, что это знак остановки, но в Deep Neural Net (DNN) этот знак был классифицирован как птица, сидящая на обочине дороги. Это всего лишь один пример..

Взлом искусственной нейронной сети
Впервые представлена ​​на amitnkhade.com У них тоже есть слабое место — их можно взломать! Враждебные атаки, когда входные данные настраиваются, чтобы ввести эти сети в заблуждение, стали проблемой. В этом посте мы рассмотрим основы взлома нейронных сетей ответственным и этичным образом. Что это такое? FGSM (Fast Gradient Sign Method) — это тип атаки, который подпадает под категорию состязательных атак. Атаки со стороны противника стали горячей темой в области глубокого..

Интерпретация состязательных атак при ответе на вопрос с помощью UKP-SQuARE
В этом сообщении блога мы увидим, как проводить и интерпретировать состязательные атаки на модели ответов на вопросы с использованием UKP-SQuARE . Как описано в нашем предыдущем посте , состязательные атаки немного изменяют входные данные, такие как вопрос или отрывок из контекста, чтобы обмануть модель, заставив ее дать неправильный ответ на вопрос. С помощью UKP-SQuARE мы можем выполнять состязательные атаки на модели QA. В частности, можно проводить известные Input Reduction и..

Обзор книги: Состязательное машинное обучение
«Состязательное машинное обучение» Энтони Джозефа — это всеобъемлющее руководство по состязательному машинному обучению, в котором рассматриваются проблемы и возможности разработки безопасных и надежных систем искусственного интеллекта. В книге рассказывается об истории состязательного машинного обучения, о том, как алгоритмы машинного обучения «понимают» мир, а также о различных типах состязательных атак и средств защиты, которые были разработаны для устранения этих рисков. Автор дает..

Состязательная устойчивость оптического распознавания символов (OCR)
Создание простой атаки методом черного ящика с помощью Adversarial Robustness 360 Toolbox (ART) Автор: Шэрон Цянь (Гарвард) и Бит Бьюссер (IBM) Задний план За последние несколько лет было проведено множество исследований состязательных атак на модели нейронных сетей, обученных для классификации изображений, которые показали, что едва заметные изменения изображений могут легко обмануть обученную глубокую нейронную сеть. Эти атаки можно разделить на атаки «белого ящика», когда..