量子计算机使用诸如 Harrow-Hassidim-Lloyd (HHL) 算法等算法求解线性方程组,该算法利用量子力学以比经典方法更有效地执行某些线性代数运算,尤其适用于特定类型的问题。 核心思想是将系统Ax = b编码成量子态,其中A是矩阵,b是向量。 解x表示为量子态,可以对其进行测量以提取有用的信息。 当A是稀疏且状况良好的矩阵,并且目标是计算x的性质(如期望值)而不是完整的经典解时,HHL效果最佳,因为完整的经典解需要指数级的测量次数。
HHL 算法分三个主要步骤进行。 首先,使用幅度编码将b编码为量子态 |b⟩。 接下来,应用量子相位估计将 |b⟩ 分解为矩阵A的本征基,从而有效地计算A的本征值。 然后,使用受控旋转来反转这些本征值,这是一种量子运算,可以根据本征值的倒数来调整解状态的幅度。 最后,测量辅助量子比特,以有条件地将系统折叠到解状态 |x⟩。 重要的是,此过程避免了显式构造 A⁻¹,这在经典计算中计算成本很高。 例如,如果A是具有条目λᵢ的对角矩阵,则反转步骤直接将 |b⟩ 的幅度按1/λᵢ缩放,从而产生 |x⟩。
但是,存在实际限制。 该算法假定A可以有效地实现为量子电路(例如,具有低深度哈密顿模拟的稀疏矩阵)。 解状态 |x⟩ 不是直接可读的——只能通过测量来估计特定特征(如某些算子M的 ⟨x|M|x⟩)。 此外,当前量子硬件中的错误率限制了问题规模。 例如,在真正的量子计算机上求解 2x2 系统需要纠错和多次测量来减轻噪声。 尽管存在这些挑战,但 HHL 展示了在部分解决方案就足够的应用中的潜力,例如优化机器学习模型中的参数或求解物理模拟中的微分方程。