随着量子计算技术的飞速发展,硅基量子计算因其兼具高稳定性和工艺成熟度,成为当前量子计算硬件领域的重要发展方向。然而,硅基量子计算机在规模化和实际应用中面临诸多挑战,尤其是在量子处理器与经典计算资源之间的高速交互、复杂的信号处理及校准过程方面。近期,澳大利亚领先的量子计算公司Diraq与美国QM Technologies Inc.联手,采用NVIDIA最新发布的DGX Quantum架构,成功将人工智能(AI)与量子计算深度结合,实现了硅基量子计算硬件与GPU处理器之间极低延迟的实时通信,有效解决了传统方法中的性能瓶颈问题。此次合作不仅显著提升了硅基量子芯片的规模化能力,还在量子态初始化、自动校准及实时读出等关键应用领域取得了突破,为量子与经典计算的融合开辟了崭新路径。 Diraq团队在澳大利亚悉尼的实验室中,通过DGX Quantum系统展示了GPU加速在量子计算中的巨大优势。该系统基于NVIDIA的Grace-Hopper超芯片与QM公司的OPX1000混合控制器,构建了量子硬件与GPU之间3.3微秒的高速来回通信通道,实现了量子处理器与经典AI计算单元的无缝协同工作。
此前量子计算里广泛使用的现场可编程门阵列(FPGA)在信号处理复杂度和通信时延方面难以满足更大规模量子计算的需求,而GPU的引入极大提升了处理能力与灵活性,成为未来量子控制与加速的关键技术。 此次联合研发团队围绕量子计算最为棘手的几个难题展开攻关。首先在量子状态的实时读出方面,传统方法依赖事后离线处理,时间成本高且难以满足实际应用对实时性的要求。借助DGX Quantum强大的GPU计算能力,团队实现了之前仅限于后期处理的关联读出信号实时分析,在提高读出精度的同时极大地缩短了反馈时间,推动量子处理器状态监测向实时化发展。同时,采用深度学习驱动的机器学习算法实现了复杂量子系统的自动校准,大幅减少手动调整时间,从小时级缩短至分钟级别,提高研究效率和系统稳定性。 此外,量子态初始化速度直接影响量子算法执行的有效性。
Diraq基于其近期发表在权威期刊《Nature》上的创新算法,利用GPU加速实现快速量子态制备,在量子比特的相干时间内完成所需初始化操作,显著提升了整体计算准确度和效率。这些成果彰显了量子与经典AI技术结合的巨大潜能,助力硅基量子芯片向实用化方向迈进。 Diraq创始人兼首席执行官Andrew Dzurak表示,传统量子计算机因缺少与经典计算架构的紧密结合而难以克服扩展和实时控制的障碍。此次结合QM与NVIDIA技术的突破,证明了GPU驱动的量子控制和加速能够迅速推动硅基量子处理器的性能跃升。他强调:“未来量子计算的发展离不开强大的经典计算支持,我们的合作就是在利用人工智能重新定义量子硬件控制的边界。” QM Technologies公司创始人兼首席执行官Itamar Sivan同样看好此项融合创新。
他表示,DGX Quantum的真正考验是能否被科研团队迅速应用并取得实质性进展。Diraq团队在系统安装后短短一周内完成多个关键应用的开发,充分展示了量子-AI集成在解决复杂工程问题上的巨大潜力。这种基于GPU的混合计算架构将促进更多创新型量子算法和控制策略的快速落地。 对于NVIDIA来说,DGX Quantum不仅是硬件技术的突破,更是量子计算与全球领先AI生态系统之间的桥梁。NVIDIA量子与CUDA-X高级总监Tim Costa指出,GPU与量子处理器的无缝协作将彻底颠覆传统计算范式,使得AI算法和硬件优势能够直接赋能量子软件开发和运行。通过开放的NVIDIA CUDA-Q量子开发平台,未来研究者能够更便捷地设计、测试和优化混合量子-经典算法,拓展量子计算应用的新边界。
此外,低至3.3微秒的极低通信延迟是实现实时反馈控制的关键。这意味着量子与经典系统之间可以实现高速闭环控制,及时纠正错误、调整实验参数,延长量子比特的有效生命周期,推动实用量子计算机的早日问世。未来,DGX Quantum还将支持基于混合架构的实时量子错误纠正协议,为量子计算的鲁棒性提供坚实保障。 此次中澳美三方的技术合作不仅具有重要的科研意义,也为全球量子计算产业生态注入了新活力。Diraq与QM的成果将在2025年GTC巴黎大会上正式亮相,届时NVIDIA量子算法工程总监Elica Kyoseva将分享混合量子-经典算法开发的前沿动态,吸引全球科研与工业界的关注。 总的来看,Diraq与QM携手NVIDIA利用DGX Quantum实现硅基量子计算AI加速的成功范例,充分展示了人工智能与量子硬件深度融合的巨大优势。
随着更多类似合作不断涌现,量子计算有望逐步突破实验室桎梏,向实用、高效的商用计算平台迈进。未来几年,在AI赋能下的硅基量子技术或将成为量子产业最强有力的竞争引擎,推动新一代信息技术革命的到来,让量子优势在现实场景中真正落地生根。