Команда IBM qORI Extreme Blue:Сэм Энтони; Кристофер Моппель; Деррик Перри (II) и Челси Заки с Томом Уордом, Бханваром Гуптой, Дженнифер Глик и Трэвисом Л. Шолтеном

Внезапные наводнения могут иметь катастрофические последствия для сообществ, инфраструктуры и, конечно же, людей. Часто это непредсказуемые события, из-за чего трудно подготовиться или смягчить их потенциальные последствия. Например, внезапные наводнения в районе метро Даллас-Форт-Уэрт в прошлом месяце, по оценкам, нанесли ущерб и экономический ущерб на сумму до 6 миллиардов долларов.

Этим летом группа классических специалистов по данным, сторонников разработчиков Qiskit, исследователей квантового машинного обучения и экспертов в области управления стихийными бедствиями приступила к изучению этой проблемы. Они сосредоточились на теме, вызывающей серьезную практическую озабоченность при управлении стихийными бедствиями, связанными с погодой: как можно использовать машинное обучение для прогнозирования внезапных наводнений и как квантовое машинное обучение может помочь?

Квантовое машинное обучение (QML) — это междисциплинарный предмет, изучающий, как квантовые вычисления могут улучшить машинное обучение и искусственный интеллект. Тем не менее, большая часть сегодняшних исследований QML носит академический характер, и остается работа с точки зрения архитектуры программного обеспечения, чтобы определить, что необходимо для создания небольших демонстраций или проверки концепции для рабочих нагрузок.

В течение лета команда стажеров IBM Extreme Blue работала в двух параллельных направлениях: построение классической модели машинного обучения для прогнозирования внезапных паводков и построение модели с квантовым усилением. Эти треки сошлись в результате анализа производительности обеих моделей на наборе данных о внезапных наводнениях в Техасе и Кентукки. Выполняя эту работу, команда не только изучала, как квантово-усиленное машинное обучение можно применить к практической проблеме, но также стремилась одновременно решить гораздо более сложную проблему под руководством и поддержкой со стороны мировых лидеров из National Oceanic. и Атмосферное управление» (НОАА) и Всемирная метеорологическая организация (ВМО).

Существует множество надежных источников данных для улучшения прогнозирования наводнений и смягчения последствий стихийных бедствий с использованием ИИ. Стажеры qORI проделали большую работу, чтобы определить ключевые переменные и продемонстрировать ценность классического и квантового машинного обучения на примере трагических наводнений в Кентукки, — сказал Адам Смит из NOAA Погода и климатические катастрофы на миллиард долларов. ».

Цель проекта состояла в том, чтобы прогнозировать сильные внезапные паводки с высокой вероятностью как можно раньше и с высокой степенью достоверности на уровне почтовых индексов. Прогнозирование наводнений на таком уровне детализации является относительно новым, поскольку существующие классические модели машинного обучения развернуты для сильно локализованных и подверженных наводнениям регионов, а не для всего штата или округа. Заблаговременные предупреждения позволяют быстро планировать стихийные бедствия, оказывать помощь и смягчать последствия для спасения жизней. Объединив прогноз внезапного наводнения с индексом социальной уязвимости США на уровне округа, мы можем легко построить визуализацию, выделяющую потенциал риска внезапного наводнения красным цветом (высокая степень серьезности), оранжевым цветом (средняя степень серьезности), желтым цветом (низкая степень серьезности). или зеленый (без риска).

При использовании классического машинного обучения для прогнозирования быстроразвивающихся паводков возникают две основные трудности. Во-первых, типичные источники данных, такие как база данных NOAA о штормовых явлениях, записи о поверхностных характеристиках земли с несколькими разрешениями, региональные обозначения земель от Геологической службы США и осадки и атмосферные условия от The Weather Company, по своей природе неоднородны. Это означает, что необходимо определить правильные функции (переменные) в данных, которые можно осмысленно использовать для прогнозирования. Во-вторых, внезапные наводнения — это редкие явления, то есть набор данных, состоящий из наводнений в данном регионе, как правило, несбалансирован, то есть «регулярных» наводнений больше, чем внезапных.

Для решения этих трудностей потребовались некоторые классические методы науки о данных. В частности, команда должна была определить правильные функции для использования в модели, а также хорошие меры для количественной оценки производительности модели перед лицом несбалансированного набора данных. Команда определила 10 функций для использования (из 40 возможных переменных); к ним относятся прошлые уровни осадков, будущие уровни осадков, наличие непроницаемых поверхностей и изменения высоты. Команда пришла к выводу, что сбалансированная точность и оценка F1 были лучшими показателями, которые можно использовать для оценки того, насколько хорошо работает модель.

С точки зрения используемой классической модели команда остановилась на машине опорных векторов (SVM) по трем причинам. Во-первых, SVM обеспечивают хорошую прозрачность для отношений с несколькими переменными, а прозрачность модели обеспечивает большее доверие со стороны пользователей. Во-вторых, эмпирическая производительность SVM была выше, чем у других моделей ML (см. рисунок). В-третьих, SVM могут использовать методы ядра, упрощая разработку квантового аналога. Сбалансированная точность SVC, приведенная ниже, была на уровне почтового индекса, результаты по округам превышали 80%.

По своей сути ядерные методы заключают в себе простую идею: нелинейная задача классификации в одном пространстве признаков может стать линейной — и, таким образом, поддающейся анализу с помощью SVM — путем отображения данных из одного пространства признаков в другое, многомерное. Математически методы ядра оценивают сходство между двумя фрагментами данных в этом многомерном пространстве без необходимости явного отображения данных. SVM могут использовать эту информацию для изучения правила принятия решения; в этом проекте это правило заключалось в том, произойдет ли внезапный паводок в данной географии.

Подключение ядер к квантовым вычислениям впервые было рассмотрено в работе Обучение с учителем с использованием расширенных квантовых пространств, проведенной исследователями IBM Quantum. Идея этой работы заключалась в том, что меру подобия можно вычислить с помощью параметризованных квантовых схем, которые кодируют классические данные в квантовое пространство состояний (так называемые карты квантовых признаков). Последующая работа показала, что классические модели машинного обучения, дополненные доступом к этим квантовым ядрам, могут превзойти любую классическую модель для сложных задач, а также показали, что квантовые ядра можно систематически улучшать для структурированного набора данных. .

Программирование схем для расчета квантовых ядер с помощью Qiskit довольно просто. В проекте использовалась первая схема, предложенная для квантовых ядер — Карта характеристик ZZ — по двум причинам: во-первых, предполагается, что для большого количества кубитов эту схему трудно моделировать классическим способом, а во-вторых, она легко доступна в Библиотека схем Qiskit. Далее, используя Модуль машинного обучения Qiskit, легко настроить квантовое ядро ​​и использовать его в классической SVM с помощью объектов QuantumKernel и QSVC соответственно. Таким образом, проект может повторно использовать всю классическую инфраструктуру науки о данных, используемую для выявления хороших функций и оценки производительности модели, одновременно исследуя, что может сделать модель прогнозирования внезапных наводнений с квантовым усилением.

Для этой конкретной карты признаков необходимое количество кубитов равно количеству признаков в наборе данных. Поскольку количество функций было сравнительно небольшим, можно было использовать симуляторы для оценки значения квантового ядра для бесшумного квантового компьютера. Таким образом, использование моделирования позволило команде проверить и отладить свой подход.

Хотя первоначальные результаты анализа на уровне округа в Техасе были многообещающими с точки зрения производительности как классической, так и расширенной квантовой модели, команда не была полностью удовлетворена — можно ли было улучшить производительность? К счастью, ранее в этом году IBM Quantum выпустила прототипы Qiskit — код, созданный на основе Qiskit, который использует передовые исследования и превращает их в удобные для разработчиков инструменты. Один из таких прототипов, Quantum Kernel Trainer, был именно тем инструментом, к которому команда могла обратиться.

Этот прототип, основанный на работе Ковариантные квантовые ядра для данных с групповой структурой, представляет собой инструмент для обучения квантовых ядер. Идея обучения квантового ядра состоит в том, чтобы взять карту признаков, используемую для кодирования данных, и наделить ее некоторыми дополнительными элементами, каждый из которых имеет настраиваемые параметры. Они действуют как своего рода гиперпараметры для ядра. Затем инструмент позволяет оптимизировать эти параметры, чтобы попытаться повысить производительность модели машинного обучения с квантовым усилением.

С помощью прототипа обучения ядра в базовую карту ZZFeatureMap из библиотеки схем Qiskit были внесены поправки, включившие начальную последовательность вентилей вращения RY на каждом кубите. Затем прототип оптимизировал углы этих поворотных ворот, чтобы попытаться улучшить производительность модели. В конце обучения команда увидела очень небольшие, но заметные улучшения в производительности модели с квантовым усилением.

Результаты экспериментов команды представлены в таблице ниже. На рисунке ниже показан пример прогноза серьезности внезапных наводнений в цветовой кодировке на уровне округа для штата Техас.

Проведенный командой qORI анализ внезапных паводков с использованием классических методов искусственного интеллекта был очень убедительным. Обнадеживающие ранние результаты с использованием квантовых методов требуют дальнейшего изучения каскадных и сложных многофакторных угроз, — сказал Джеймс Дурис, научный сотрудник ВМО.

Хотя эти результаты являются многообещающими, они получены из набора задач ограниченного размера, которые все еще достаточно малы для классического моделирования. Остается открытым вопрос о том, сохранятся ли улучшения моделей с квантовым усилением в полностью увеличенной версии этой проблемы.

Одной из нерешенных задач этого проекта является выявление практических и архитектурных узких мест для увеличения размера набора данных до идеального уровня детализации. Переход от набора данных на уровне округа к набору данных на уровне почтовых индексов по Техасу увеличил бы количество выборок в 31 раз. Использование модуля машинного обучения Qiskit для обработки квантовых ядер в наборе данных такого размера может стать непомерно высоким, поскольку время, необходимое для вычисления полной матрицы ядра на квантовом компьютере, может стать чрезмерно трудоемким. По этой причине команда рассматривает расширение этого проекта, в котором будут определены и устранены препятствия для масштабирования до такого набора данных, возможно, за счет использования Qiskit Runtime и Runtime Primitives.

Мы в восторге от этой работы и ее потенциала и планируем продолжать ее развивать. Будущие расширения этой работы включают расширение как классической, так и квантовой моделей прогнозирования внезапных наводнений в США, а затем в другие страны и внедрение услуг анализа рисков внезапных наводнений, например, в Operations Risk Insights.

Для получения дополнительной информации об этом блоге обращайтесь: Tom Ward, IBM CDO, руководитель проекта ИИ, Bhanwar Gupta, IBM CIO, архитектор решений ORI, Jen Glick, IBM Quantum, технический руководитель прототипов Quantum. или Travis L Scholten, IBM Quantum, архитектор приложений Quantum. Авторы также хотят поблагодарить других наставников команды qORI: Честера Карватовски, Джозефа Вашингтона, Ринку Канвара, Аюша Кумара и Малликарджуна Мотаги.