Искусственный интеллект (ИИ) превратился в магический инструмент. Почти человеческий интеллект, который мы научили машины развивать и использовать, стал необходимым для развития науки, техники и безопасности. От интеллектуального холодильника до интеллектуальной сети ИИ использует беспрецедентный уровень доступных данных и мощности компьютеров, предлагая огромный потенциал для выявления скрытых закономерностей в больших данных для научных открытий и повышения производительности. Эти шаблоны используются для создания моделей, которые позволяют аналитикам прогнозировать, как система будет вести себя в различных условиях, чтобы улучшить ее работу и обеспечить ее безопасность.

Но мы все чаще обнаруживаем, что у мастерства ИИ есть темная сторона: машина может слишком многому научиться на благо владельца системы — которым может быть национальное правительство или компания — и общества. Мы приближаемся к этому моменту, когда сдвиг, по иронии судьбы, начинает ограничивать эффективность ИИ.

Позволь мне объяснить. Процесс обнаружения, который делает ИИ таким ценным, может быть использован противником для извлечения информации, которую владельцы систем должны держать в секрете. Просто наблюдая за доступными данными, правительство может раскрыть конфиденциальную информацию, что может привести к угрозе безопасности и заставить стороны отказаться от внедрения сложных приложений ИИ.

Например, реконструируя данные датчиков ядерного реактора, можно расшифровать конфиденциальную информацию, касающуюся конструкции реактора и аварийных систем. Более того, международные договоры обязывают страны инспектировать оружие друг друга, чтобы убедиться, что оно было демонтировано, но процесс, используемый для инспектирования, также можно использовать для изучения конструкции оружия, выявляя уязвимые места. Вырисовываются потенциальные последствия для национальной обороны.

Среди других примеров, на линии огня находятся владельцы критической инфраструктуры — нефтегазовой, электроэнергетической и водоочистной. Да, тот же ИИ, который использовался для улучшения и защиты этих систем, может быть обращен против них.

То же самое касается приложений безопасности, где искусственный интеллект может подделывать отпечатки пальцев и водяные знаки. Последние тенденции указывают на то, что проприетарное программное обеспечение также может стать жертвой реинжиниринга двоичного кода на основе ИИ — действия, которое долгое время считалось слишком фундаментальным, чтобы заинтересовать кибератак.

Что дальше? По мере того, как сила ИИ во благо расширяется, растет и его способность наносить вред. Страх владельцев систем перед предоставлением доступа к своим данным уже начинает ограничивать благотворное влияние ИИ. ИИ обучают пропускать сбор определенных видов данных, необходимых для оптимизации операций, а страны и предприятия не решаются делиться любыми данными, полученными с помощью ИИ, с третьими сторонами. Учитывая эти тенденции, ИИ не будет использоваться в полной мере — если только его нельзя будет обуздать, не подрывая его сильные стороны.

К счастью, для этого разрабатывается первое в своем роде решение. Я участвую в проекте по разработке нового алгоритма запутывания, который позволяет ИИ выполнять свои необходимые функции, удерживая его от других открытий, которые могут привести к вредоносной деятельности.

В этом начинании, финансируемом Национальным научным фондом, я сотрудничаю с коллегами из Научно-информационного центра Purdue (CSoI) и Национальной лаборатории штата Айдахо Министерства энергетики США. Разработанная нами технология, на которую был выдан предварительный патент, обучает ИИ извлекать и анализировать все скрытые шаблоны системы, которые необходимо найти для улучшения работы, но в то же время не позволяет ему находить другие шаблоны, которые раскрывают конфиденциальную информацию и уязвимости. .

Используя идею изменения формы, воспетую в голливудских фильмах, данные преобразуются с помощью математической операции, чтобы скрыть идентичность исходной системы, превращая ее в безопасную систему, сохраняя при этом всю информацию, относящуюся к ИИ. Этот подход заметно отличается от существующих методов, таких как искажение голоса и лица для защиты личности говорящего или сокрытие имен пациентов для защиты их конфиденциальности в медицинских исследованиях.

Наша цель — дать возможность ИИ двигаться по восходящей траектории, не допуская при этом тех областей, где он может вызвать проблемы. Как ни странно, мы хотим высвободить ИИ, посадив его на поводок.

Хани Абдель-Халик

Доцент, Школа ядерной инженерии

Исследователь, Центр науки об информации (CSoI)

Преподаватель Центра интеллектуальной инфраструктуры (CII)

Исследователь Центра образования и исследований в области обеспечения и безопасности информации (CERIAS)

Инженерный колледж

Университет Пердью

Ссылки по теме

Подкаст Cybersecurity Unplugged:«Обоюдоострый меч: ИИ»

Исследователи Purdue создали «самосознательный алгоритм для предотвращения попыток взлома»

Эксперт: Кибератаки на критическую инфраструктуру

Центр Науки Информации (CSoI)

Purdue Engineering получает финансирование Министерства энергетики для ускорения внедрения микрореакторов, напечатанных на 3D-принтере

Ядерная наука и инженерия:«Обманчивое вливание данных: новая парадигма маскировки данных для ценных систем»