问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

复旦&西湖大学联手,证实量子数据并行的有效性!

创作时间:
作者:
@小白创作中心

复旦&西湖大学联手,证实量子数据并行的有效性!

引用
腾讯
1.
https://new.qq.com/rain/a/20250219A080LQ00

量子神经网络(QNNs)在处理某些数据集时有望实现更低的泛化误差界限和更高的计算效率。然而,数据并行性中的量子叠加整合在量子神经网络背景下尚未得到探索,这是经典神经网络应用中的关键要素。

2月18日,复旦大学、西湖大学组成的联合团队在《Physical Review Research》期刊上发表题为“Quantum data parallelism in quantum neural networks”(量子神经网络中的量子数据并行性)的研究论文,Sixuan Wu为论文第一作者,李牮为论文通讯作者。

本文演示了量子并行性的有效应用,通过量子叠加和纠缠在通用量子神经网络模型中实现数据并行性。研究针对两类训练数据编码方案展开研究。对于正交量子态编码,严格证明了并行训练与单数据训练在损失函数层面的等价性,该结果直接源自量子纠缠;对于非正交量子态编码,证明并行计算仍然可行,且数据间的量子干涉效应变得显著。

通过对这些不同场景的数值比较分析(包含/不包含叠加数据输入的各类量子神经网络),研究凸显了量子数据并行的有效性。

DeepSeek背后的技术基石,利用量子神经网络能实现吗?

当量子计算机用Shor算法破解RSA加密时,背后正是量子并行性这一“分身术”在发威——即利用量子物理学原理同时执行大量操作的能力,是量子计算相较于经典计算的一项基本优势。这一原理在Shor算法、量子傅里叶变换、Grover搜索算法等知名量子算法中至关重要,这些算法能够让量子计算机一次性探索多条经典路径,为量子并行性的显著优势提供了范例。

传统QNN训练如同流水线作业:每次只能处理一个数据点,通过参数化量子电路生成损失函数。这种单线程模式导致重复量子处理效率低下,浪费了量子叠加态的天然并行优势。

在经典机器学习中,数据并行技术是一种常见的分布式训练方式,指的是将训练数据分割成多个小批次,每个计算单元(如GPU)处理一部分数据。它是ChatGPT、DeepSeek等背后的技术基石之一,能显著提升模型训练速度,在大规模模型的训练场景中效果尤为明显。这自然而然地引出了一个关键问题:量子神经网络能否有效地实现数据并行性呢?

经典并行本质仍是物理分离的数据处理,量子并行性却能在一个物理系统中同时处理海量数据。这就像从多台机器协作跃迁到一台机器千面分身,本质上具有更高的集成度和效率。

现有的一些研究已经涉及到量子数据并行性,其中训练数据点由正交量子态表示。然而,这些研究既未聚焦于这一方面,也未通过比较并行训练和传统的单个训练方法进行系统研究。此外,虽然有人提出了专门为并行计算设计的量子神经网络模型,但这些模型存在局限性;在量子神经网络的背景下,将训练数据点编码为非正交量子态的方案也尚未得到探索。

图1:量子神经网络中量子数据并行的概念图。

为了填补这些空白,研究揭示了量子叠加和量子纠缠这两个关键的量子原理如何在通用量子神经网络中实现数据并行性(见图1)。本文从基于异或(XOR)问题的可精确求解的例子入手,研究正交或非正交输入量子态下单个训练和并行训练之间的差异。在此基础上,提出了一个通用的量子神经网络框架,涵盖了目前大多数常用的量子神经网络模型。在这个框架内,详细分析了如何借助量子叠加实现数据并行性。研究结果通过鸢尾花(Iris)和MNIST等真实世界数据集进行了验证,确立了量子数据并行性在量子神经网络中的可行性。

理论方法

量子数据并行性原理

研究基于量子叠加和纠缠原理实现QNN中的数据并行。在通用QNN框架下,将训练数据编码为量子态,对比单个输入和批量输入两种训练方式。单个输入时,每个数据点分别编码为量子态;批量输入则将多个数据点编码为叠加态。通过对输出量子比特和标签量子比特进行特定测量,评估二者的一致性,进而定义损失函数。

正交编码与非正交编码

对于正交编码,证明了在量子叠加输入下,批量训练和传统单个训练的损失函数相等。这意味着批量训练不仅能提高数据处理效率,还能保证与单个训练相同的效果。而在非正交编码中,数据点间的量子干涉会显著影响损失函数,使批量训练的损失函数与单个训练不再等效。不过,合理利用这种干涉效应,可能为非正交编码带来独特优势。

图2:通过具有正交编码的最小量子电路解决异或(XOR)问题。

图3:通过具有非正交编码的最小量子电路解决异或(XOR)问题。

损失函数与优化算法

为了优化损失函数,研究采用基于梯度和无梯度的算法。自动微分方案可用于计算梯度,在实际应用中,同时扰动随机逼近(SPSA)算法在小规模有噪声的实验环境中表现出色。在测试阶段,直接测量输出量子比特,并根据测试集上的预测准确率来评估模型性能。

研究方案与过程

研究选取了奇偶问题、鸢尾花数据集和MNIST数据集进行实验。奇偶问题专注于从二进制输入中学习布尔函数,适合测试正交编码下QNN的性能;鸢尾花数据集常用于分类任务,被用来评估非正交编码下QNN的并行性;MNIST数据集作为手写数字识别的标准基准,可全面比较QNN在不同编码和输入方式下与经典FNN的性能差异。

针对每个数据集,研究设计了相应的QNN和FNN模型。在奇偶问题实验中,QNN模型类似特定结构且不含U1部分,U2部分包含两个辅助量子比特,与之对比的FNN由三层构成。鸢尾花数据集实验里,QNN省略U1且U2中无辅助量子比特,FNN参数数量与QNN相近。MNIST数据集实验中,采用下采样版本,QNN在正交编码时对图像二值化并用基编码,非正交编码时采用幅度编码,FNN则采用类似U2结构。


图4:一个通用的量子电路框架,可容纳各种QNN。

在所有实验中,均使用Adam优化器。针对不同模型和数据集,设置了合适的学习率和批量大小。如奇偶问题实验中,QNN学习率为0.05,FNN为0.01,批量大小均为64;鸢尾花数据集实验中,QNN和FNN学习率均为0.05,采用全部训练数据进行批量训练;MNIST数据集实验中,QNN和FNN学习率均为0.01,批量大小为128。

研究成果

1.量子数据并行性的可行性验证

通过理论分析和数值模拟,研究明确了基于量子叠加的数据并行在量子神经网络中是可行的。无论是正交编码还是非正交编码,批量输入训练都能有效进行。在正交编码下,理论证明了批量训练和单个训练在损失函数上等效,数值模拟结果也与之相符;非正交编码时,虽然批量训练和单个训练的损失函数不同,但数值模拟表明批量输入训练同样可行,且在某些情况下能实现与单个输入训练相同的准确率。


图5:用于验证和评估量子并行化方案的数值模拟。

2.不同编码方式的性能差异

研究发现,正交编码和非正交编码各有特点。正交编码在保持数据信息完整性方面表现较好,但所需量子比特数较多;非正交编码可视为一种数据压缩方式,所需量子比特数较少,但会损失一定的可分性。不过,非正交编码利用数据点间相对相位的额外自由度和量子干涉效应,在解决某些学习问题时可能具有量子优势。例如在MNIST数据集实验中,非正交编码的QNN在特定情况下能达到与FNN相近的准确率。

3.对量子神经网络训练的深入理解

研究揭示了优化量子神经网络损失函数与最大化输出和标签量子比特间纠缠的关系。这为理解量子神经网络的训练过程提供了新视角,有助于进一步优化量子神经网络的设计和训练方法。同时,研究还指出了当前研究存在的开放性问题,为后续研究指明了方向,如更高效的输入叠加态制备算法、基于量子信息理论确定表示数据集的最优量子比特数等。

本文是对量子神经网络中数据并行性的一项开创性原理验证研究。这种量子并行性的实现显然得益于量子叠加和量子纠缠的基本原理,同时量子测量有效提取全局信息的能力也为其提供了支持。

研究为量子神经网络中的数据并行性提供了深入的理论分析和实验验证,证明了量子数据并行性的可行性和有效性,也为未来量子神经网络的发展提出了重要的研究方向。随着研究的不断深入,量子神经网络有望在更多领域取得突破,为科学研究和实际应用带来新的机遇。

主要研究人员

李牮,西湖大学理学院物理系副教授。主要研究凝聚态物理学中拓扑非平庸系统的电子性质,现阶段尤其关注在实现高容错量子计算方面极具潜力的拓扑超导和与其相关的马约拉那准粒子。由于在马约拉那费米子方面的一系列理论工作获得2016年布拉瓦尼克青年科学家(地区)最高奖。

参考链接

[1]https://journals.aps.org/prresearch/abstract/10.1103/PhysRevResearch.7.013177

[2]https://dl.acm.org/doi/10.1145/3529756

[3]https://mp.weixin.qq.com/s/7woIbImqJLUfQF4NXlrF6w

[4]https://blog.csdn.net/universsky2015/article/details/137295776

[5]https://www.westlake.edu.cn/faculty/jian-li.html

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号