Кибербезопасность — это игра с высокими ставками, в которую играют онлайн против таких противников, как хакеры, доксеры, черные шляпы, злонамеренные кодеры, бомбардировщики писем, фрикеры, фрикеры и… уф! список заклятых врагов можно продолжить. Пока мы переводим дух, новые виды киберпреступников развиваются где-то в недрах киберпреступности.

Искусственный интеллект — это новая технология, которая поможет противостоять надвигающимся онлайн-угрозам. В области ИИ произошли феноменальные разработки, особенно в областях, касающихся безопасности и защиты данных. А эксперты по кибербезопасности нового века используют искусственный интеллект в меру своих возможностей для противодействия надвигающимся киберугрозам.

Достаточно ли развит искусственный интеллект, чтобы положить конец этой угрозе?

Приходите исследовать.

Мы умные. Хакеры умнее.

Хакеры ждут и наблюдают, а затем наносят удар в нужное время. Методы работы киберпреступников нового века ясны и просты: воспользоваться технологиями, на которые мы так беспомощно полагаемся, либо обмануть нас, шантажировать, либо создать хаос в массовом масштабе.

Возьмем, к примеру, облачные вычисления. Это одна из триумфальных инноваций последнего времени, но она не так надежна, когда дело доходит до кибер-краж. Облачные консоли стали основной мишенью для хакеров. Как только хакеры получают контроль над консолью, они могут перехватывать, манипулировать или даже удалять рабочие нагрузки, подталкивая заинтересованную сторону к банкротству. Или, что еще хуже, они могут угрожать компаниям, занимающимся облачными технологиями, выплатой огромных выкупов, что и происходит в последнее время.

Машинное обучение или МО (родственник ИИ) отлично справляется с воспроизведением вещей. Одним из удивительных качеств этой технологии является то, что она может учиться по мере роста. Хакеры запускают обученные программы машинного обучения для сканирования банковских счетов, электронных писем, страниц в социальных сетях или любых других конфиденциальных платформ, где эти умные программы могут наблюдать, впитывать, а затем воспроизводить поддельные копии для фишинга.

Простая истина заключается в следующем: в каждой цифровой и связанной технологии, которую мы создаем, киберпреступники видят в ней окно возможностей.

Хакеры действуют быстро, поэтому защитники должны действовать быстро

Хакеры быстры и используют хитроумно разработанные программы для автоматизации своих грязных операций по перехвату, краже и обману организаций. Недавние исследования показали, что преследовать киберпреступников сложно из-за трех факторов:

1. Преступники продвинуты и изощренны

2. Они не следуют никаким правилам

3. Недостаток размеченных данных о кибератаках

Итак, это означает, что эксперты по кибербезопасности должны быть такими же умными, как их преступники, или, возможно, даже лучше, чтобы сорвать их попытки, пока не стало слишком поздно.

ИИ в мире кибербезопасности

Раньше роли команд разработки и безопасности были разделены, другими словами, безопасность не всегда учитывалась при разработке программных продуктов. По мере того как хакерские атаки и другие киберпреступления становились все более опасными, возникла необходимость совмещать разработку и безопасность. Появление этой практики побудило разработчиков опробовать новые технологии, чтобы заполнить пробелы. И ИИ был одной из таких технологий.

Такие технологии, как машинное обучение, глубокое обучение и нейронные сети, распространяются повсюду. Такие фреймворки, как Torch, TensorFlow, Caffe, все больше и больше используют возможности искусственного интеллекта.

27 % руководителей заявили, что в этом году их организации планируют инвестировать средства в меры кибербезопасности, использующие искусственный интеллект и машинное обучение

-Глобальное исследование состояния информационной безопасности, проведенное PwC за 2018 г.

Вызовы и задачи.

Хотя предприятия стремятся внедрить ИИ в свою деятельность для борьбы с киберугрозами, к сожалению, многим из них не хватает существенных знаний об этой технологии. Приступая к практической реализации, технологии искусственного интеллекта и машинного обучения требуют большого количества качественных обучающих данных для обучения и разработки моделей искусственного интеллекта.

Как говорит Иван Новиков, генеральный директор Wallaram, фирмы, занимающейся безопасностью ИИ, «чаще всего отдельным организациям не хватает объема деятельности, истории и разнообразия для самостоятельного создания этих моделей». В этих случаях, предлагает он, «лучшее решение — положиться на службу или поставщика, который может создавать модели ИИ, чтобы делиться историей между несколькими организациями в отрасли и учиться как у злоумышленников, так и у защитников для создания моделей, которые одновременно являются широкими. и глубоко».

«Технологии искусственного интеллекта и машинного обучения требуют большого количества качественных обучающих данных для обучения и разработки моделей искусственного интеллекта».

Где ИИ берет верх?

В глазах хакеров весь мир — это страна возможностей. Они замечают слепые пятна, которые едва видны нашим глазам. Это означает, что специалисты по кибербезопасности должны быть быстрыми, бдительными и настойчивыми, такими же остроумными, как и их враги (киберпреступники). Например, в традиционном методе для обнаружения уязвимости эксперты по безопасности создают правила, инструкции и сигнатуры. Они также вручную генерируют виртуальные исправления, что может занять более 20 человеко-часов. Но с искусственным интеллектом весь процесс автоматизирован, и виртуальные исправления могут быть созданы за гораздо меньшее время.

Скорость — сила преступника. Сегодня скорость распространения атак нереальна. Если бы возникла необходимость, они могли бы распространить хаос в глобальном масштабе за считанные секунды. Именно здесь ИИ может доказать свою силу. Когда программы ИИ правильно обучены и снабжены соответствующими данными, они могут анализировать тонны данных за доли минуты; сообщить и предотвратить катастрофу, что может оказаться чрезвычайно трудным для людей.

Алгоритмы ИИ, как известно, очень хорошо умеют отличать выбросы от нормальных паттернов. Вместо того, чтобы искать совпадения на основе конкретных сигнатур, ИИ смешивается с киберсистемами, сначала создавая базовый уровень, а затем исходя из него он глубоко погружается в аномальные события, которые вызывают атаку.

Еще одна область, в которой ИИ превосходит группы безопасности людей, — это возможность масштабировать операции по мониторингу киберсистем, обнаружению нарушений, инцидентов и других проблем.

ИИ против человеческого фактора

В 2017 году собственная пара чат-ботов Facebook, управляемая искусственным интеллектом (названные Бобом и Элис), устроила странное шоу. Эти чат-боты были разработаны для оказания поддержки клиентам Facebook, однако эти два чат-бота разработали собственный язык и тайно разговаривали друг с другом. Кажется, что-то прямо из фантастического фарса, но это действительно произошло.

Почему мы так говорим, так это то, что, хотя технологии ИИ и машинного обучения обладают «интеллектуальностью», если их оставить без участия человека, они могут либо пойти наперекосяк, либо не выполнить то, для чего они были предназначены. Есть несколько случаев, когда эти технологии не оправдали надежд их сторонников.

После угадывания победителей в 2016 году ИИ не смог предсказать лошадь-победителя для Дерби в Кентукки в 2017 году.

В октябре 2017 года было обнаружено, что некоторые умные колонки Google Home Mini тайно включались сами, записывая голоса своих владельцев и отправляя записи в Google. Это вызвало кошмары о конфиденциальности у многих пользователей. Позже Google анонсировала патч, исправляющий эту проблему.

Список увеличивается. Это может показаться безобидным, но представьте, что системы искусственного интеллекта в массовом порядке бездельничают или обращаются против своих хозяев, когда они должны их защищать.

Поскольку у медали всегда есть обратная сторона, факт остается фактом: технологии искусственного интеллекта и машинного обучения не совсем безошибочны.

Ну, не совсем вывод...

В то время как ИИ имеет высокие оценки в определенных областях, человеческое прикосновение остается непревзойденным, чтобы его можно было заменить чем-либо искусственным. Как оказалось, люди и ИИ должны работать вместе для достижения наилучших возможных результатов. Несмотря на то, что отрасли кишат технологиями искусственного интеллекта, нам еще предстоит пройти долгий путь, прежде чем мы передадим мантию искусственному интеллекту. До этого времени человеческий интеллект и искусственный интеллект должны работать бок о бок, поскольку мы продолжаем бороться с киберпреступлениями…