Кристофер М. Уилсон, Йоханнес С. Оттербах, Николас Тезак, Роберт С. Смит, Гэвин Э. Крукс, Маркус П. да Силва

В течение последних нескольких лет было много ажиотажа вокруг экспериментального прогресса зарождающихся квантовых компьютеров. Производятся все более и более крупные устройства, открывающие дверь для исследования того, что интересного можно сделать с помощью этих шумных квантовых устройств промежуточного масштаба (NISQ). Будучи относительно небольшими и шумными, эти устройства не могут получить выгоду от квантовой коррекции ошибок. Для решения интересных проблем используются алгоритмы эпохи NISQ, известные как гибридные алгоритмы: алгоритмы, основанные на относительно небольших квантовых схемах, работающих в сочетании с некоторыми классическими вычислениями.

Наш последний результат - это новый подход к гибридным алгоритмам для устройств NISQ, применимый к довольно широкому классу задач машинного обучения, известному как машинное обучение с учителем. Это довольно интересно, потому что мы можем показать, что это хорошо работает для реальных наборов данных даже при использовании очень маленьких схем всего на 2 или 4 кубитах. Но прежде чем мы углубимся в детали нашего результата, позвольте нам дать некоторую предысторию проблемы, которую мы рассмотрели, и корни нашего подхода.

Машинное обучение и классификация с учителем

Стандартный пример обучения с учителем - классификация - нам нужна машина, которая может различать два класса вещей, скажем, написанную от руки «3» или «5». Однако, прежде чем мы сможем использовать машину, нам нужно обучить ее, предоставив примеры того, что мы хотим классифицировать, а также метки, сообщающие ей правильный ответ для обучающих данных. Затем мы можем протестировать машину, подав ей новые примеры и попросив ее классифицировать эти изображения, а затем посмотреть, как часто она получает правильный ответ.

Современные алгоритмы классификации, такие как глубокие нейронные сети, имеют десятки миллионов свободных параметров, которые необходимо численно оптимизировать. Они очень дороги с точки зрения объема памяти и вычислительной мощности, необходимой для их обучения. Это не подходит для квантовых компьютеров эпохи NISQ. Мы искали способы сделать наши машины меньше и эффективнее с точки зрения вычислений.

Мы нашли вдохновение в работах Али Рахими и Бена Рехта, использовавших подход под названием случайные кухонные мойки. Их ключевое понимание заключалось в том, что рандомизированные машины часто могут обучаться так же хорошо, как и оптимизированные машины, хотя они меньше и требуют гораздо меньше вычислительной мощности для обучения. Фактически, недавние результаты показывают, что этот подход может работать с некоторыми задачами не хуже, чем глубокие нейронные сети.

Это понимание восходит к первым дням создания нейронных сетей. Mark 1 Perceptron был аналоговым компьютером 1960-х годов, созданным для решения проблем с машинным зрением. Его вход представлял собой сетку оптических датчиков 20x20. Он также имел слой из 512 нелинейных «ассоциативных» цепей и 8 выходных «ответных» блоков. Обучение проводилось путем регулировки потенциометров с приводом от двигателя, которые соединяли ассоциаторы и ответные устройства. Это было медленно и дорого.

Чтобы компенсировать небольшое количество изученных связей, у них была случайная статическая сеть из 16 000 связей между сенсорными и ассоциативными единицами. Модель персептрона показывает нам, что сложность и нелинейность важны, но большая часть этой сложности и нелинейности может быть случайной. Эта гибридная модель сложной случайности и простого обучения - вот что вдохновляет квантовые кухонные мойки.

Раковины Quantum

Вместо случайных связей наш алгоритм использует случайные схемы. Эти схемы имеют свободные параметры (углы поворота для квантовых состояний), и мы кодируем данные в углах, смешивая входные данные со случайными числами. Вместо одной большой сложной схемы мы можем использовать простые схемы, которые мы повторяем много раз с разными случайными параметрами, но эти схемы могут иметь столько кубитов, сколько мы захотим, и столько свободных параметров, сколько мы позволим. Мы складываем измеренные биты, полученные для каждой схемы, в большой вектор и вводим его в очень простой алгоритм классификации на классическом компьютере.

Здесь возникает тонкость: если мы передаем выходные данные нашего квантового компьютера в алгоритм машинного обучения на классическом компьютере, как мы узнаем, что квантовый компьютер что-то делает? Мы решаем эту проблему, сосредотачиваясь только на очень простых методах машинного обучения на классическом компьютере (только линейные функции) и сравнивая производительность между наличием и отсутствием квантового компьютера в алгоритме. Другими словами, мы сравниваем гибридный алгоритм с линейной базовой линией и сосредотачиваемся на «росте» производительности, обеспечиваемом квантовым компьютером.

Чтобы проверить наш подход, мы начали с сосредоточения внимания на довольно простом искусственном наборе данных, где различные классы соответствуют вложенным кадрам изображения. Эти классы не могут быть разделены прямой линией, поэтому они очень сложны для линейных методов машинного обучения, которые мы позволяем иметь классическому компьютеру - классический алгоритм по сути просто случайным образом угадывает между двумя возможными метками. Однако, когда мы обучаем классификатор алгоритму квантовой кухонной мойки, используя всего два кубита, мы можем получить практически идеальную классификацию данных. Другими словами, мы можем показать, что даже очень маленький квантовый компьютер может дать очень большой прирост производительности - от полностью случайной классификации до практически идеальной.

Далее мы рассмотрели более интересный набор данных: рукописные цифры из базы данных MNIST. Этот набор данных часто используется в качестве эталона для алгоритмов машинного обучения и состоит из массивов серой шкалы размером 28x28 пикселей (относительно высокоразмерный набор данных, особенно по сравнению с двухмерным примером выше). Мы решили сосредоточиться на подмножестве базы данных, которое было сложнее всего правильно различить простым методам машинного обучения - рукописным цифрам 3 и 5. Этот выбор облегчает показ лифта за счет квантовых кухонных раковин. Если мы выберем вместо этого цифры 0 и 1, мы обнаружим, что даже без квантового компьютера очень простые линейные классические алгоритмы имеют почти идеальную точность, поэтому довольно сложно показать, что квантовый алгоритм увеличивает производительность. .

В то время как линейные классические алгоритмы могут различать «3» и «5» с точностью ~ 96,8%, добавление квантовых кухонных раковин увеличивает ее до ~ 98,6%, что значительно превышает статистическую неопределенность, связанную с оценками. В частности, это достигается всего с 4 кубитами и очень мелкой схемой - то, что можно легко сделать на устройствах, доступных сегодня, - и у нас есть доказательства, что это близко к оптимальному для рассматриваемого нами анзаца схем.

Следует подчеркнуть, что эти цифры стоят недешево - случайные кухонные мойки лучше всего работают с большими наборами обучающих данных, и все свидетельства указывают на аналогичное поведение для квантовых кухонных моек. Более того, еще многое предстоит узнать о том, как выбирать эти параметризованные схемы, как выбирать случайные числа для смешивания с входными данными и как оптимизировать количество кубитов для получения хорошей производительности. Вопрос о том, существует ли режим, в котором этот подход может превзойти лучшие классические алгоритмы, безусловно, интересен, а также вопрос, на который, как нам кажется, мы довольно далеки от ответа. При этом мы находим, что эти примеры являются убедительным свидетельством перспектив устройств эпохи NISQ, и с нетерпением ждем возможности увидеть, как другие члены сообщества могут использовать этот подход для решения интересных проблем.

Прочтите статью полностью:
Квантовые кухонные раковины: алгоритм машинного обучения на квантовых компьютерах в ближайшем будущем. https://arxiv.org/abs/1806.08321