Публикации по теме 'adversarial-attack'


Использование состязательных атак на модель передачи Resnet18 в классификации наборов медицинских данных
В этом эксперименте, в котором мы использовали надежную, предварительно обученную нейронную сеть для классификации медицинских изображений, а именно УЗИ молочной железы, сканирования опухолей головного мозга и сканирования легких Covid-19, мы обнаружили, что при определенных условиях надежная предварительно обученная модель может превосходить неробастную предварительно обученную модель в различных аспектах. Вступление: Трансферное обучение — популярный подход, при котором модели,..

Защита моделей машинного обучения от состязательных атак
Машинное обучение и глубокое обучение широко используются в различных областях и показали свою эффективность во многих приложениях, таких как обнаружение мошенничества, распознавание речи и т. д. Одной из областей, в которых машинное обучение и глубокое обучение продемонстрировали свою эффективность, являются системы обнаружения вторжений в сеть. Учитывая успех машинного обучения и глубокого обучения в этих областях, они активно использовались — модели обучались с использованием новых..

Защита рабочих нагрузок машинного обучения в облаке и на периферии
Уязвимости машинного обучения, характерные для облачных и пограничных сред, в которых они работают, сегодня далеко не так заметны и понятны, как другие области кибербезопасности. Мы можем сделать лучше. Абстрактный Постоянное внедрение и переход к облачной инфраструктуре является сегодня определяющей технологической темой для предприятий по всему миру. Облачная контейнерная инфраструктура предоставляет множество динамических возможностей и масштабируемости для предприятий любого..

Состязательное машинное обучение
Введение Конечной целью исследований машинного обучения должно быть положительное влияние на общество и мир. По мере увеличения числа приложений ML становится все более важным решать различные вопросы безопасности; как те, которые уже возникают с сегодняшними системами машинного обучения, так и те, которые могут усугубиться в будущем с более продвинутыми системами. — Семинар ICLR 2019 В сфере безопасности угрозы состязательного машинного обучения (AML) относятся к любым рискам,..

Переносимые состязательные атаки с учетом важности новой функции значительно улучшают…
Поскольку глубокие нейронные сети (DNN) в настоящее время все чаще используются в реальных приложениях, их уязвимость к атакам со стороны злоумышленников вызвала обеспокоенность у специалистов по машинному обучению, особенно в случае областей, чувствительных к безопасности, таких как автономное вождение. Атаки на основе передачи представляют собой подход к атаке методом «черного ящика», который предлагает большую практичность и гибкость по сравнению с другими методами атак и, таким..

Обманывать распознавание лиц с помощью моды
Accompanying GitHub repository: https://github.com/BruceMacD/Adversarial-Faces Распознавание лиц становится все более популярным. В связи с недавними дебатами об этике распознавания лиц я думал о потенциальных атаках против распознавания лиц. Распознавание лиц используется повсюду, от аэропортов до социальных сетей. Кажется, почти невозможно отказаться от сканирования лица. Идеальная атака на распознавание лиц - это предмет одежды, который незаметен для неосведомленных...

Извлечение секретов из языковой модели в LSTM
Как взломать нейронную сеть Модель глубокого обучения запоминает все, включая конфиденциальную информацию. Его легко извлечь, если обучающие данные не были очищены. В этой статье я задокументирую свой путь по воспроизведению приведенной ниже статьи. Секрет относится к информации, которую мы хотим извлечь из языковой модели. Распространитель секретов: измерение непреднамеренного запоминания нейронной сети и извлечение секретов Модели машинного обучения,..