Машинное обучение используется не только специалистами по безопасности, но и злоумышленниками со злым умыслом. Как они используют это для улучшения своих кибератак?

В предыдущем посте мы рассмотрели множество способов, которыми аналитики безопасности и организации используют машинное обучение для предотвращения киберпреступлений. Способность алгоритмов машинного обучения классифицировать ранее невидимые данные и прогнозировать будущие данные означает, что они имеют широкий спектр применения в киберзащите. Однако те же черты машинного обучения могут в равной степени использоваться во вредоносных контекстах.

Во втором посте мы рассмотрим различные способы, которыми злоумышленники используют машинное обучение для улучшения социальной инженерии и сокрытия своего вредоносного ПО от антивируса.

Что такое машинное обучение?

Напомним, что машинное обучение — это процесс предоставления модельным наборам данных полезных функций, чтобы она «изучила» основные концепции и сделала прогнозы относительно будущих данных. Он может предсказать, как могут выглядеть будущие данные, или классифицировать ранее невидимые точки данных. В контексте киберпреступлений он может использоваться для создания сложных и целевых фишинговых электронных писем.

Как машинное обучение используется в кибератаках?

Там, где машинное обучение использовалось в кибербезопасности для выявления похожих вредоносных программ и вредоносных ссылок, вместо киберпреступности оно используется для обхода фильтров, обхода проверок CAPTCHA и создания целевых фишинговых писем. При сравнении этих двух систем кибербезопасность, по-видимому, имеет гораздо более широкое применение для машинного обучения. Но будущие тенденции к уклоняющемуся вредоносному ПО и фишингу могут представлять серьезную угрозу для индустрии кибербезопасности.

Обход CAPTCHA

CAPTCHA присутствуют в веб-приложениях по всему Интернету с целью предотвращения автоматического перебора или массовой регистрации многих учетных записей ботов в злонамеренных целях. CAPTCHA включает в себя выполнение простой задачи, которую робот может найти сложной. Однако по мере того, как машинное обучение становится все более продвинутым, модели могут стать чрезвычайно эффективными для решения этих проблем и обхода защиты. Это может привести к атакам методом грубой силы, которые могут скомпрометировать учетную запись.

Это быстро превращается в игру в кошки-мышки; CAPTCHA становятся более неясными и трудными для ответа, но алгоритмы машинного обучения улучшаются для идентификации фотографий. Статья, опубликованная в 2018 году, смогла достичь 100% точности в некоторых реализациях CAPTCHA и более 92% в реализации Amazon.

Перебор пароля

Алгоритмы машинного обучения также можно использовать для создания данных, аналогичных заданному набору данных. Это особенно полезно при создании паролей из терминов, относящихся к пользователю. Этот метод был продемонстрирован в популярном телешоу Мистер Робот, и многие онлайн-инструменты вдохновлены им. Комбинация Open Source Intelligence (OSINT) и машинного обучения может генерировать списки паролей гораздо более краткими и, вероятно, приведет к успешной попытке грубой силы. 13% паролей, сгенерированных одним методом, действительно использовались в реальных сценариях, что с точки зрения перебора очень впечатляет.

Ускользающее вредоносное ПО

Машинное обучение, используемое для обнаружения вредоносных программ, можно считать одним из первых реальных применений искусственного интеллекта в индустрии кибербезопасности. Однако недавно были опубликованы статьи, показывающие, как можно создать вредоносное ПО, чтобы избежать обнаружения с помощью машинного обучения. Одна статья использовала алгоритм машинного обучения для изменения конкретной вредоносной программы и смогла успешно избежать обнаружения более чем в 45% случаев. Последствия развития этого типа вредоносных программ будут серьезными и ощущаться во всем мире. К счастью, эти методы не были успешно рассмотрены в дикой природе (кроме вредоносных программ, реализующих фишинговые мошенничества с искусственным интеллектом), и текущее антивирусное программное обеспечение не уступает.

Расширенный фишинг

Фишинговые атаки существуют уже более 20 лет и продолжают быть успешными, несмотря на то, что известность о них возросла. Чтобы повысить вероятность успешного мошенничества, можно вручную собрать информацию о цели, чтобы создать идеальный твит или электронное письмо. Это может обеспечить до 45% рейтинга кликов по вредоносной ссылке. Однако этот процесс намного медленнее, чем автоматизированные методы.

Опубликованная Blackhat статья использовала машинное обучение для автоматизации этого, очищая профиль пользователя Twitter и создавая целевые твиты из учетных записей ботов. Было обнаружено, что этот метод в 4 раза быстрее, чем ручной фишинг, и поддерживает высокий рейтинг кликов от 33% до 66%, что делает его столь же правдоподобным, как и ручной фишинг в некоторых сценариях, если не больше. Это реальный пример того, как автоматизация и искусственный интеллект могут использоваться для таргетинга и мошенничества с конкретными пользователями.

Поскольку социальные сети являются полем битвы за фейковые новости и распространение дезинформации, неизбежно использование ИИ-ботов для распространения такой информации наиболее правдоподобным образом. Однако в равной степени машинное обучение может быть ключом к проверке фактов и предотвращению распространения.

Резюме

Кибератаки с использованием машинного обучения исследуются и разрабатываются совсем недавно. Ускользающее вредоносное ПО, представляющее наиболее серьезную опасность, еще не было замечено в реальных атаках. В абсолютном выражении машинное обучение в кибербезопасности более развито и широко применяется, чем его аналог кибератак. Однако в ближайшие несколько лет может произойти изменение злонамеренной активности, в основе которой лежит искусственный интеллект.

Посетите нас на www.informer.io, чтобы узнать больше.

Первоначально опубликовано на https://www.informer.io.