Назад

Нейросети теперь умеют работать с квантовыми данными

Физики обобщили концепцию искусственных перцептронов на квантовые системы и разработали квантовую нейронную сеть, способную к случайным вычислениям. Эта нейронная сеть продемонстрировала отличную предсказательную способность в задаче определения случайных многокубитных преобразований, даже для зашумленных образцов. Метод обучения, представленный учеными, способен экспоненциально ускорить процесс обучения глубоких нейронных сетей.

Кубит на руке человека

Алгоритмы машинного обучения очень сложны с вычислительной точки зрения. Сейчас, когда мощность классических компьютеров больше не растет (закон Мура начинает нарушаться), необходимы новые подходы к обучению, которые предполагают радикально иные реализации нейронных сетей. В то же время квантовые устройства, способные превзойти классические компьютеры в определенных задачах, позволят реализовать квантовое машинное обучение. Ученые давно используют симбиоз между алгоритмами предсказания и квантовыми вычислениями. Например, физики используют машинное обучение для предсказания динамики многочастичных систем, на которых построены кубиты, а квантовые вычисления, в свою очередь, могут помочь ускорить классические алгоритмы обучения.

Одной из таких областей машинного обучения является построение квантовых нейронных сетей, которые могут обучаться на квантовых данных. Построение такой сети требует внедрения искусственных нейронов в квантовую систему и разработки архитектуры сети и модели обучения. Базовой единицей такой нейронной сети является квантовый перцептрон, аналог перцептрона, используемого в классическом машинном обучении. В реализации перцептрона используется локальная унитарная операция, которая преобразует состояние из m кубитов в состояние из n кубитов, и эта операция имеет 22(m+n)-1 параметров. В качестве входных данных использовались квантовые состояния входного слоя, а в качестве предсказаний ученые получали квантовые состояния выходного слоя.

Обучение требует введения функции потерь, меры поведения нейронной сети, которую в дальнейшем необходимо минимизировать. Поскольку в роли входа и выхода выступают квантовые состояния, естественной функцией потерь является обратная надежность (fidelity), которая показывает, насколько близко данное квантовое состояние к желаемому квантовому состоянию. Если квантовые состояния одинаковы, обратная верность принимает значение 0; если они максимально различны, она принимает значение 1. Для обучения сети физики изменили параметры локального унитарного преобразования так, чтобы максимизировать достоверность, усредненную по обучающим выборкам.

Интересной особенностью этого метода обучения является то, что параметры локального преобразования могут быть вычислены послойно, то есть без применения преобразования к каждому кубиту. Так количество изменяемых параметров изменяется лишь с шириной сети, что позволяет обучать очень глубокие нейросети.

В качестве примера сети ученые рассмотрели проблему получения случайной матрицы из ограниченного набора случайных входных и выходных векторов квантовых состояний, чья размерность меньше ширины сети. Нейронная сеть показала хорошую динамику при обучении и устойчивость к шумам в данных.

Квантовые нейронные сети, представленные физиками, могут уменьшить количество кубитов, необходимых для хранения промежуточных состояний для предсказания, но требуют запуска сети много раз для оценки дифференциальных функций потерь. Однако современные квантовые устройства способны выполнять чрезвычайно быстрые вычисления. Например, в недавнем эксперименте Google с квантовым преимуществом процессору потребовалось всего 200 секунд, чтобы запустить сеть миллион раз.

Ранее Google уже использовал изменяемые квантовые алгоритмы, которые можно представить как нейронные сети, для моделирования молекул, а в 2017 году американские ученые предложили использовать квантовые точки на основе цинка для создания крупномасштабных нейронных сетей.