“阿尔法量子比特”展现准确纠错能力
科技日报北京11月24日电 (记者张梦然)最新一期《自然》杂志发布了谷歌“深度思维”团队的人工智能(AI)成果:一款名为“阿尔法量子比特”(AlphaQubit)的AI解码器。这款解码器能以前所未有的精确度检测量子计算过程中出现的错误,且在10万轮模拟实验中均保持良好性能,这是构建稳定可靠量子计算机的关键步骤。
“阿尔法量子比特”采用了基于神经网络的设计,特别是利用了Transformer架构,这是目前大多数大型语言模型的基础。该解码器的任务是在实验结束时,通过一致性检查作为输入,准确预测逻辑量子位的状态是否已从初始状态发生变化。
在训练阶段,团队首先使用了来自“悬铃木”量子处理器的49个量子比特的数据集对“阿尔法量子比特”进行训练。他们先利用量子模拟器生成了数亿个不同设置和错误级别的示例,随后通过数千个实验样本来微调“阿尔法量子比特”,使其更好地适应具体应用场景。
测试结果显示,在处理“悬铃木”的新数据时,“阿尔法量子比特”显著提高了错误识别的准确性。特别是在最大规模的实验中,“阿尔法量子比特”将错误率降低了6%以上。同时,它还比相关性匹配方法的错误率低了约30%。
团队还使用了最高至241个量子比特的模拟量子系统数据进行训练,结果显示,即使在超出“悬铃木”平台限制的情况下,“阿尔法量子比特”依然能够超越现有的高级解码算法,显示出其在未来中型量子设备上的潜在应用价值。
此外,在长达10万轮的模拟实验中,即使经过最多25轮的错误校正训练,“阿尔法量子比特”仍表现出色,证明了其在面对未知情况时的泛化能力。
团队表示,“阿尔法量子比特”代表了使用机器学习进行量子纠错的重要里程碑,但其仍面临速度和可扩展性方面的重大挑战,未来还需寻找更加高效的训练方法。
【总编辑圈点】
量子计算的可靠性与稳定性是其面临的重要挑战。利用人工智能技术为量子计算纠错,是一种极具潜力的思路:机器学习能高效处理量子计算过程中产生的海量数据,快速识别出错误模式与特征,从而显著提升量子纠错效率。不过,人工智能与量子计算都属于新兴前沿技术,这两种技术均具有一定的复杂性,且面临可靠性方面的挑战。两个“新手”做“搭档”,会不会引入新的不确定性?这一点需要研发团队高度关注。
说明:
本文来自网络媒体
纠错:2438514686@qq.com