Live Chat

Crypto News

Cryptocurrency News 11 months ago
ENTRESRUARPTDEFRZHHIIT

哈佛大学研究人员提出了一种创新技术来增强量子计算中的抗错性和静音“噪声”

Algoine News
Summary:
哈佛大学的研究人员在他们的论文“基于可重构原子阵列的逻辑量子处理器”中概述了一种运行量子计算过程的方法,具有更高的抗错性和噪声抑制能力。这一突破解决了量子计算中重大的“噪声”障碍,其特点是量子比特容易出错。尽管尚未实现完全的错误纠正,但该团队的处理器引入了一个计算后错误检测阶段,用于识别和丢弃错误结果。这标志着量子计算机摆脱了“嘈杂的中尺度量子”时代,实现“量子优势”的创新途径。然而,量子系统需要不断努力来应对主要的计算挑战,尽管开发的技术被认为是可扩展的。
在讨论计算的未来时,技术专家经常提到量子机器及其解决传统二进制系统难以解决的问题的独特能力。量子装置的这种优越性被称为“量子优势”,要求这些系统具有稳定性和可扩展性。据专家介绍,噪声是阻碍量子计算可扩展性的关键和最大障碍。哈佛大学的研究人员将他们的发现写在一篇论文中,“基于可重构原子阵列的逻辑量子处理器”。本文概述了如何在提高抗错性和增强噪声抑制的情况下执行量子计算。由此,他们宣告了早期纠错量子计算的开始,绘制了通往大规模逻辑处理器的路线。 目前少于 1,000 个量子比特(相当于计算机比特的量子)的量子计算系统被归类为噪声中尺度量子 (NISQ) 系统,之所以如此命名,是因为它们主要是“噪声”。这种“噪音”意味着量子比特容易出现故障和错误;哈佛大学的研究人员声称已经克服了这一困境,实现了前所未有的噪音抑制。然而,他们还没有设法完全消除错误。 量子计算的主要挑战在于量子比特的本质——它们在测量时会丢失数据。不幸的是,测量它们是识别错误的唯一方法。要完全纠正错误,就意味着发明一个能够在整个计算过程中自主识别和纠正错误的量子系统。然而,这是一项艰巨的任务,要大规模完成。 哈佛大学团队的处理器不是在计算过程中修改错误,而是引入了计算后错误检测阶段。此阶段识别并丢弃错误结果。根据这项研究,这种新方法可能会加快量子计算在NISQ时代之后的发展,推动我们更接近量子优势的目标。 尽管取得了进展,但DARPA的一份声明表明,要解决量子计算机有望解决的任何重大问题,还需要比团队测试中使用的48个逻辑量子比特更多的内容。然而,研究人员坚持认为,他们开发的技术可以扩展到包含超过10,000个量子比特的量子系统。

Published At

12/8/2023 12:00:00 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch