Публикации по теме 'adversarial-example'


Обман нейронных сетей: создавайте свои собственные состязательные примеры
10 янв 2018 г. | Даниэль Гэн и Риши Веерапанени Убийство нейронной сетью. Звучит безумно? Что ж, это может когда-нибудь случиться, и не так, как вы думаете. Конечно, нейронные сети можно обучить пилотированию дронов или управлению другим оружием массового уничтожения, но даже безобидную (и в настоящее время доступную) сеть, обученную вождению автомобиля, можно использовать против ее владельца. Это связано с тем, что нейронные сети чрезвычайно восприимчивы к так называемым примерам..

Состязательная устойчивость оптического распознавания символов (OCR)
Создание простой атаки методом черного ящика с помощью Adversarial Robustness 360 Toolbox (ART) Автор: Шэрон Цянь (Гарвард) и Бит Бьюссер (IBM) Задний план За последние несколько лет было проведено множество исследований состязательных атак на модели нейронных сетей, обученных для классификации изображений, которые показали, что едва заметные изменения изображений могут легко обмануть обученную глубокую нейронную сеть. Эти атаки можно разделить на атаки «белого ящика», когда..

Набор инструментов для создания состязательных примеров, которые обманывают нейронные сети
Набор инструментов для создания состязательных примеров, обманывающих нейронные сети Набор инструментов на основе Python для создания состязательных примеров Это краткое изложение исследования – лишь одно из многих, которые еженедельно публикуются в информационном бюллетене для ученых, занимающихся искусственным интеллектом. Чтобы начать получать еженедельную рассылку , зарегистрируйтесь здесь . Нейронные сети продемонстрировали высокую производительность в нескольких задачах..

Необычная эффективность состязательных атак
С появлением глубоких нейронных сетей в сообществе машинного обучения растет озабоченность по поводу безопасности. Люди сомневаются в интерпретируемости нейронных сетей, и, естественно, возникают вопросы о последствиях для безопасности модели глубокого обучения. Состязательные атаки используются для поиска примеров изображений / данных, на которых модель машинного обучения ведет себя совершенно случайным образом. Более того, выходные данные сети на этих примерах противоборства..

AI Scholar: последствия состязательных атак
AI Scholar: Последствия состязательных атак Это краткое изложение исследования – лишь одно из многих, которые еженедельно публикуются в информационном бюллетене для ученых, занимающихся искусственным интеллектом. Чтобы начать получать еженедельную рассылку , зарегистрируйтесь здесь . Нейронные сети уязвимы для атак со стороны противника, которые могут привести к ложным прогнозам, таким как путаница собаки с лягушкой. Но, как вы, наверное, знаете, они не ограничиваются..

Примеры состязательности - переосмысление определения
Примеры состязательности - переосмысление определения Состязательные примеры - большое препятствие, которое необходимо преодолеть множеству систем машинного обучения. Их существование показывает тенденцию моделей полагаться на ненадежные функции для максимизации производительности, которые, если их нарушить, могут вызвать неправильную классификацию с потенциально катастрофическими последствиями. Неформальное определение состязательного примера - это ввод, который был изменен таким..

Примеры состязательности на основе семантики Распознавание лиц дурака
Состязательные примеры, призванные обмануть системы классификации изображений AI, в последние годы стали горячей темой для исследований и безопасности. Большая часть работы по созданию примеров состязательных изображений включала добавление пиксельных пертурбаций. Теперь исследователи из Китайского университета Гонконга, Университета Мичигана, CUHK - SenseTime Joint Lab, Китайского университета Гонконга и Университета Иллинойса в Урбане-Шампейне предложили новый подход к состязательной..