物理学家已经开发出了一种可以处理无限维度(infinite dimensions)的量子机器学习(quantum machine learning)算法,也就是说:该算法可以处理连续变量(在一个闭合区间内拥有无限多个可能值),而不是通常使用的离散变量(只有有限数量的值)。Hoi-Kwan Lau 等研究者已经将该研究的相关论文发表到了最新一期 Physical Review Letters 上。机器之心对该论文进行了摘要介绍。
该研究所提出的光学设备,可被用于实现无限维度上的新型量子机器学习算法
这些物理学家解释说,量子机器学习是量子信息(quantum information)领域内的新兴的子领域,其将量子计算的速度和机器学习所提供的学习和适应能力结合到了一起。
使用能够处理连续变量的量子机器学习算法的一个最大优势是在理论上其能执行比经典算法快得多的运算。因为许多科学和工程模型都涉及到连续变量,所以将量子机器学习应用到这些问题上有望能够实现具有深远影响的应用。
「我们的研究表明:利用光子在一台量子计算机上执行机器学习任务可以远远超越任何传统计算机的速度,」该论文的作者之一、田纳西大学的 George Siopsis 说,「相比于其它技术,量子机器学习能在每个量子比特上存储更多信息且每个量子比特的成本也非常低,所以量子机器学习还能带来其它潜在的优势,比如更低的能耗需求。」
到目前为止的大多数量子机器学习都还只能处理涉及离散变量的问题。将量子机器学习应用于连续变量需要一种非常不同的方法。
为了做到这一点,他们需要开发一系列能处理连续变量的新工具。这些工具要能够使用物理门(physical gate)取代离散变量状态中使用的逻辑门,这些物理门可以处理连续变量状态。这些科学家从这些基础模块开始构建此算法,而后又开发了新的方法来解决量子机器学习问题。这种方法名为子程序(subroutine),其是通过矩阵和向量进行表征的。
尽管该研究结果是纯理论的,物理学家预计可以使用目前的技术在实验上实现该连续变量的新算法。这种实现可通过几个方式达到,比如通过使用光学系统、自旋系统或囚禁离子。无论采用哪种类型的系统,实现的过程都是很有难度的。例如,光学实现需要目前最新的技术,比如「薛定谔猫态」(0 和 1 的叠加态)和高速率挤压(减少量子噪声)。
未来,科学家希望进一步研究如何拓展连续变量的量子机器学习,从而可复制离散变量的最新结果。另一个可以深入的研究是混合方法,即如何在单个算法中结合离散变量和连续变量。
以下是对该研究论文的摘要介绍:
论文:在无限维度上的量子机器学习(Quantum Machine Learning over Infinite Dimensions)
作者:Hoi-Kwan Lau、Raphael Pooser、George Siopsis 和 Christian Weedbrook
摘要:机器学习是一个迷人且激动人心的计算机科学领域。最近,这样的激动人心已经进入到了量子信息(quantum information)领域。目前,所有为机器学习的量子愿景所提出的方法都建立在有限维度的离散变量的基础上。在这里,我们将量子机器学习泛化到了更复杂但仍然非常实用的无限维度系统上。我们提出了用于全光子连续变量量子计算机的量子机器学习算法的关键子程序,其可以带来在经典算法多项式扩展的情形中的指数级水平的加速。最后,我们还描绘了一个实验性的实现,其可被用作未来光子演示的蓝图。