Машинное обучение (ML) — это машины, идентифицирующие закономерности в данных. Шаблоны могут быть классами или кластерами, в которые точки данных могут быть сгруппированы или сегментированы. ML стремится позволить машинам идентифицировать эти шаблоны напрямую и автоматически (без человеческого программирования) из данных. Машину можно обучить, используя предварительно помеченные (маркировка, скорее всего, сделана людьми) данные, а затем предоставить ее собственным устройствам для выполнения классификации новых данных. Это так называемое контролируемое обучение. В качестве альтернативы машине даются немаркированные данные и ставится задача определить действительные кластеры и создать метки самостоятельно. Это неконтролируемое обучение.

Во многих случаях данные трудно понять в необработанном виде. Обычно к данным применяется некоторое преобразование, которое помогает выявить закономерности. Например, данные в столбцах таблицы преобразуются в двумерный график, что облегчает выявление тенденции. Предыдущий пример представляет собой аналогию, которую можно продолжить. Если мы преобразуем данные в более высокие измерения, окажется, что закономерности легче идентифицировать и выражать в более высоких измерениях. Машины опорных векторов используют эту идею в качестве основы для того, как они выполняют классификацию и кластеризацию. На YouTube есть очень хорошие руководства по ядрам (и машинам опорных векторов, которые их используют). Я рекомендую эту серию из трех частей о машинах опорных векторов.

Основная идея состоит в том, чтобы взять точки данных и преобразовать их из более низкого m-мерного пространства в более высокое n-мерное пространство признаков с помощью карты признаков. Рисунок 1 иллюстрирует этот процесс преобразования данных из 2D в 3D, где простая плоскость может сегментировать данные, по сравнению с «волнистой» линией, которая была необходима в 2D.

Назовем точки данных x и x’. Они сопоставляются картой объектов f с пространством признаков, чтобы стать f(x) и f(x’). В этом многомерном пространстве признаков мы можем проверить сходство между f(x) и f(x'), взяв скалярное произведение, также известное как скалярное произведение между ними, ‹f(x),f(x')›. Таким образом, ядро ​​k(x, x') является мерой сходства между f(x) и f(x'), то есть k(x, x’) = ‹f(x),f(x’)›. Для конечного набора данных это можно сделать для всех пар точек данных и объединить в матрицу.

Теперь о квантовом аспекте. Интересно, что квантовый аспект можно определить по системе обозначений. В квантовой механике перекрытие между двумя квантовыми состояниями S(x) и S(x') может быть выражено в так называемой скобочной нотации как ‹ S(x)|S(x')›, удивительно похожий на ядро! Оказывается, что сходства (или, скорее, аналогии?) простираются глубже, чем просто обозначения. Квантовые вычисления включают в себя получение некоторой точки данных x из входного пространства и преобразование ее в гильбертово пространство более высокой размерности посредством состояния отображения |S(x)›. Доступ к пространству более высокого измерения осуществляется через измерения, подобные ядрам. Для подробного обсуждения рекомендую видео Марии Шульд на YouTube Quantum Enhanced Kernel Methods.

Квантовые преимущества ядерных методов можно получить только в том случае, если карты признаков очень сложны, а не только состояния продукта. Это было исследовано в нескольких знаковых работах. Мы будем следить за этими исследованиями в учебных пособиях с использованием игрушечных моделей данных, sklearn и Qiskit.

Учебники по Qiskit + sklearn

  1. Учебное пособие — Классификация с использованием квантового ядра и различных кодировок.
  2. Учебное пособие — Кластеризация с использованием квантового ядра и различных кодировок.
  3. Учебник — Реализация на реальном оборудовании.

использованная литература

  1. Гавличек В., Корколес А.Д., Темме К. и др. Контролируемое обучение с квантово-расширенными пространствами признаков. Nature 567, 209–212 (2019). https://doi.org/10.1038/s41586-019-0980-2
  2. arXiv:2101.11020[квант-ph]
  3. Судзуки Ю., Яно Х., Гао К. и др. Анализ и синтез карты признаков для квантового классификатора на основе ядра. Квантовая мах. Intel. 2,9 (2020 г.). https://doi.org/10.1007/s42484-020-00020-y
  4. Quantum Kernel Machine Learning — документация Qiskit Machine Learning 0.1.0