构建可扩展量子计算机面临着几个重大的技术挑战。第一个主要障碍是保持量子比特的稳定性和最大程度地减少错误。量子比特是量子信息的基本单位,对环境噪声(如温度波动或电磁干扰)极其敏感。这种敏感性会导致“退相干”,即量子比特在计算完成前失去其量子态。例如,超导量子比特(IBM 和 Google 等公司使用)通常只能维持微秒级的相干时间。即使是微小的错误也会迅速累积,而量子纠错需要大量的开销:可能需要数千个物理量子比特才能创建一个可靠的“逻辑”量子比特。目前拥有数百个量子比特的系统远未达到这一门槛,因此错误管理是一个关键的障碍。
第二个挑战在于硬件和控制系统的扩展。增加量子比特数量会增加布线、冷却和信号路由的复杂性。例如,超导量子比特需要精确的微波控制脉冲,并且必须在接近绝对零度(-273°C)的温度下运行,这需要昂贵的稀释制冷机。随着量子比特数量的增加,在有限的冷却空间内安装更多控制线变得不切实际。阱离子量子比特是一种替代方法,可提供更长的相干时间,但也面临自身的扩展问题:随着离子数量的增加,用激光操纵离子变得更加困难。这些工程限制使得平衡量子比特数量、控制精度和物理尺寸变得困难。
最后,开发能够与不完善硬件协同工作的软件和算法使得可扩展性更加复杂。Shor 因数分解算法等量子算法假定量子比特是无错误的,但现实世界的设备具有高错误率。开发人员必须设计“噪声感知”算法或将部分计算卸载到经典系统的混合方法。例如,化学模拟中使用的变分量子算法需要在量子和经典硬件之间进行迭代优化,这会引入延迟和通信瓶颈。此外,编程工具和编译器必须针对量子比特连接和门保真度进行优化,这些参数在不同硬件平台之间差异很大。在这些软件和硬件挑战得到解决之前,实现实际的可扩展性仍然遥不可及。