Google Quantum AI团队的研究科学家Michael Newman曾有言:“相信某件事和看到它发挥作用是有区别的。”
这就是科技成果的魅力所在——变不可能为可能,让梦想走向现实。
2024年,科学头条旋风般地席卷了我们的屏幕,在国际量子年到来前夕,来自全球各地的科学家献上了完美的答卷。
“济南一号”微型卫星实现实时空对地量子安全通信,为构建量子网络筑牢了根基;核钟初鸣,标志着基于原子核的固态光钟的开启;全球首个机械量子比特诞生,让我们看到通往量子计算的更多路径;谷歌Willow芯片攻克了困扰量子纠错领域30年的重大难题,让量子的星光再度闪耀全球。
在此,团队根据技术突破、创新水平、社会反响等指标,整理并列举出2024年全球量子科技十大进展(见上图,排名不分先后)。
以下为这些科研成果的详细信息。
01
超导量子计算
IBM | Google | 中国科学技术大学 | IMEC等
要论近期最火爆的量子计算技术路线,超导量子计算当之无愧。2024年是超导量子计算大爆发的一年,超导“御三家”于去年年底相继发布性能最强的量子芯片,分别是IBM的Heron R2,Google的Willow,中科大的祖冲之三号。
IBM Heron R2:IBM迄今为止性能最高的量子处理器
图:IBM Heron R2
来源:IBM
2024年11月13日,在公司首届量子开发者大会(QDC)上,IBM推出了一款量子计算机,能够运行包含高达5000个双量子比特门操作的量子线路。这项工作进一步扩展了IBM量子计算机的性能,超越了蛮力经典模拟方法的能力。
这台计算机使用了第二版IBM Quantum Heron(也称R2 Heron)处理器,是IBM迄今为止性能最高的量子处理器。使用相同的数据点在最新的IBM Heron处理器上运行与一年前相同的实验,可以在2.2小时内完成,速度提高了50倍。
IBM表示,他们的成果不仅仅局限于改进IBM的量子硬件和软件。它是对全球量子社区的一种行动号召,要求他们开发出能够充分利用这种系统的算法。
Google Willow:实现震撼全球的量子霸权
图:Google Willow
来源:Google
自2019年谷歌研制出具有53个量子比特的计算机“悬铃木”(Sycamore),在全球首次实现量子优越性以来,量子计算领域一直在期待新的重量级突破。五年磨一剑后,2024年12月10日,谷歌携全新芯片Willow王者归来。
与“悬铃木”相比,Willow在多个关键技术参数上实现了质的飞跃:物理量子比特翻两倍多,相干时间提升四倍,错误率降低了约两倍。
此外,Willow能在五分钟内完成当今最快的超级计算机之一Frontier需要10的25次方年才能完成的一项标准基准计算,还是首个突破量子纠错阈值的量子系统。
“这是迄今为止构建的最具说服力的可扩展逻辑量子比特原型,”Google Quantum AI的创始人兼负责人Hartmut Neven表示,“Willow使我们更接近于运行那些无法在传统计算机上复制的实用、商业相关的算法。”
中国科学技术大学“祖冲之三号”:建立量子计算优势新基准
图:“祖冲之三号”
来源:arXiv
在谷歌Willow发布刚满一周之际,2024年12月16日,中国科学技术大学、合肥微尺度物质科学国家研究中心等组成的研究团队在arXiv平台上发布了我国自主研制的超导量子计算机“祖冲之三号”的相关成果。
根据论文中的实验数据,“祖冲之三号”的性能优于谷歌“悬铃木”,各项性能指标也与Willow势均力敌。相较于“祖冲之二号”,“祖冲之三号”实现了多方面的显著性能提升。
“祖冲之三号”超导量子计算机原型机由105个量子比特组成,具有很高的操作保真度,在83个量子比特、32周期的随机电路采样实验中,“祖冲之三号”能够在短短几百秒内完成目前最强大的经典超级计算机Frontier需要约6.4×10⁹年才能完成的一百万样本的采集。
其经典模拟成本相较于谷歌的相关实验(SYC-67和SYC-70实验)也提高了六个数量级,从而在量子优越性方面确立了新的标杆。
IMEC:用于超导量子计算处理器的替代性、大规模、真正兼容CMOS的制造方法
2024年9月18日,比利时微电子研究中心(IMEC)、鲁汶大学的研究人员在《Nature》期刊上发表题为“Advanced CMOS manufacturing of superconducting qubits on 300 mm wafers”(300mm晶圆上的超导量子比特的先进CMOS制造)的研究论文。
研究人员在IMEC符合晶圆厂标准的洁净室中,使用行业标准方法在300毫米互补金属-氧化物-半导体(CMOS)先导线上制造超导transmon量子比特,实现了高相干性和98.25%的晶圆产量。
文中所提出的工业级制造工艺仅使用光刻和反应离子蚀刻,其性能和产量与使用金属剥离、倾斜蒸发和电子束写入的传统实验室式技术一致。此外,它还具有通过三维集成和更多工艺优化进一步升级的潜力,可以满足未来百万量子比特处理器的严格制造要求。
这一结果标志着一种用于超导量子计算处理器的替代性、大规模、真正兼容CMOS的制造方法的出现。
02
离子阱量子计算
Quantinuum | 清华大学、华翊量子 | 中科大、幺正量子 | Oxford Ionics
Quantinuum:率先突破“三个九”临界值
图:来自H1-1的五个门区的双量子比特随机基准数据(虚线)和所有五个门区的平均值(蓝色实线)。所有区域都与99.9%一致,而且所有区域在误差条之外都大于99.9%
来源:Quantinuum
如果把量子计算比作一场球赛,2024年的Quantinuum已经接近于完成一场完美的比赛。
2024年4月16日,Quantinuum在一篇博文中宣布,他们的离子阱量子计算机成为首台实现99.914(3)%双量子比特门保真度的商用量子计算机。科学家们将这项成就称为“三个九”临界值——几十年来,人们一直期待量子计算机能实现“三个九”,即99.9%的双量子比特门保真度。
Quantinuum的高级研发经理Dave Hayes表示:“在QCCD架构中达到‘三个九’意味着在发生错误之前,系统可以完成大约1000次纠缠操作。进入这个新阶段后,我们能解决的问题范围将大大扩展。”
Quantinuum还在文章中指出,其离子阱量子计算机的量子体积(QV)已超过一百万,并以指数级增长。
清华大学、华翊量子:首次实现基于数百离子量子比特的量子模拟计算
图:实验获得512离子二维阵列图像与典型300离子单点分辨测量结果
来源:Nature
2024年5月29日,清华大学、华翊量子的最新科研成果发表于《Nature》(自然),这项成果被Nature审稿人称为“量子模拟领域的巨大进步”“值得关注的里程碑”。
研究团队首次实现512离子二维阵列的稳定囚禁冷却以及300离子量子比特的量子模拟计算。该成果实现了国际上最大规模具有单比特分辨率的多离子量子模拟计算,将原来该研究组保持的离子量子比特数国际记录(61离子)往前推进了一大步,并首次实现基于二维离子阵列的大规模量子模拟。
除了对于理解量子物质的性质和开发新型量子材料具有重要意义外,这种量子模拟技术也为解决优化问题和搜索问题等提供了新的途径,展示了量子计算在处理复杂计算任务上的巨大潜力。
中科大、幺正量子:在多量子比特操作中减少光学串扰
11月1日,中国科学技术大学、幺正量子在《Physical Review Applied》期刊上发表题为“Low-crosstalk optical addressing system for atomic qubits based on multiple objectives and acousto-optic deflectors”的研究论文。
研究提出并实验展示了一种基于多目标和声光偏转器的低串扰光学寻址系统,旨在解决在量子计算和量子信息处理中如何精确操控离子量子比特这一问题,尤其是在多量子比特操作中如何减少光学串扰。该系统具有低串扰(近邻离子串扰小于千分之一)、高效率(独立离子微秒级的寻址切换)、可扩展性(可适用二维近千离子比特的操作)等优势,为容错量子计算提供了可靠的技术路径。
Oxford Ionics:创纪录的量子比特门保真度
图:Oxford Ionics的芯片
来源:Oxford Ionics
7月11日,Oxford Ionics宣布其芯片在无需纠错的前提下,单量子比特门保真度达到了99.9992%,双量子比特门保真度达到了99.97%,创下了行业纪录。
利用专利的电子量子比特控制技术,Oxford Ionics成功地摒弃了传统依赖激光来操控量子比特的方式。研究人员采用了一种创新的嵌入式策略,将离子阱技术与硅芯片技术相结合,使得量子比特的控制组件能够直接嵌入到硅片中,从而可以利用现有的标准半导体制造设施和工艺,实现量子计算机的大规模生产。
03
中性原子量子计算
NIST等 | 加州理工学院 | 中国科学技术大学
NIST、科罗拉多大学博尔德分校:使用超冷原子实现玻色子采样
2024年美国国家标准与技术局(NIST)与科罗拉多大学博尔德分校物理团队在二维隧道耦合光学晶格中使用超冷原子实现了玻色子采样。
这项演示是通过此前未曾实现的多种工具的结合完成的,这些工具包括对晶格中的原子进行高保真光学冷却和成像,以及利用光镊对这些原子进行可编程控制。当拓展到相互作用系统时,研究展示了在各种哈伯德模型模拟中直接构建基态和激发态所需的核心能力。
加州理工学院:创下光镊阵列中超精细量子比特相干时间的纪录
在过去的数年里,光镊阵列对原子和分子物理学产生了变革性的影响,如今,它们已然成为众多处于前沿的量子计算、量子模拟以及量子计量学实验的支柱。然而,将原子量子比特的数量扩展至数千个,同时实现长的相干时间、低损耗以及高保真成像,是一项重大挑战。
2024年3月15日,加州理工学院的研究人员通过实验实现了一个光镊阵列,该阵列可在约12000个位点上囚禁超过6100个中性原子,同时在支撑这一平台取得成功的若干关键指标方面超越了现有最佳性能。
在将原子数量扩展到如此之多的情况下,研究还展示了12.6(1)秒的相干时间,创下了光镊阵列中超精细量子比特相干时间的纪录。
中国科学技术大学:“天元”量子模拟器首次验证费米子哈伯德模型中的反铁磁相变
图:费米子哈伯德量子模拟器示意图
来源:Nature
中国科学技术大学潘建伟、陈宇翱、姚星灿、邓友金等人率领团队,成功构建用于求解费米子哈伯德模型的超冷原子量子模拟器——“天元”,该模拟器以超越经典计算机的模拟能力首次验证了该体系中的反铁磁相变。研究成果于2024年7月10日发表于《自然》。
从量子模拟的角度来看,此项工作是量子计算发展第二个阶段(即实现专用量子模拟器以求解经典计算无法解决的有应用价值的重大科学问题)里的一个里程碑进展;就凝聚态物理本身而言,该工作推进了对费米子哈伯德模型的理解,朝着获得费米子哈伯德模型的低温相图、理解量子磁性在高温超导机制中的作用迈出了重要的第一步。
《自然》期刊审稿人对该工作给予了高度评价,称该工作“有望成为现代科技的里程碑和重大突破”,“标志着该领域向前迈出了重要的一步”,“是实验的杰作,是期待已久的成就”。
04
新型量子比特
苏黎世联邦理工学院 | 哈佛大学、NIST等
苏黎世联邦理工学院:全球首个机械量子比特
图:该设备由一块蓝宝石芯片组成,上面有一个超导量子比特(左侧灰色矩形),而另一块蓝宝石芯片充当机械振荡器(右侧灰色圆点)。
来源:Science
多年来,人们一直认为,使用机械系统制造量子比特是不可能的。但近期一项研究打破了这一传统观念。
来自苏黎世联邦理工学院的研究人员演示了在固态机械系统中实现单声子非线性态。系统中的单声子非谐性超过超过退相干率6.8倍,能够将其用作机械量子比特并演示初始化、读取和单量子比特门。
该方法为量子模拟、传感和信息处理提供了一个强大的量子声学平台。但是新的机械量子比特不太可能在短期内击败更成熟的竞争对手:它的保真度仅为60%,而量子比特的最佳保真度则超过99%。因此,“这是原理上的进步”。
哈佛大学、科罗拉多大学博尔德分校、NIST:演示分子量子比特之间的纠缠和iSWAP门
作为一种充满前景的量子计算平台,囚禁极性分子具有可扩展性和单粒子可寻址性,同时还可以利用其固有的复杂性和分子的强耦合。然而,通用双量子比特门尚未在分子中得到证明。
11月13日,哈佛大学、科罗拉多大学博尔德分校、美国国家标准与技术研究院(NIST)组成的的研究团队利用内禀分子资源,使用单独囚禁的X1Σ+NaCs分子,实现了双量子比特iSWAP门。将分子在1.9 μm的距离进行相互作用664 μs,研究人员在同时存有两个分子的试验中创建了一个保真度为94(3)%的最大纠缠贝尔态。
研究人员在基态转动能级中确定了两个无相互作用的超精细态,并将其编码为一个量子比特。通过在相互作用态和无相互作用态之间的转移来切换相互作用,实现了iSWAP门。
05
量子纠错
Google | IBM | 清华大学
Google:攻克30年重大纠错挑战
图:表面码性能
来源:Nature
量子纠错(QEC)对于发挥大规模量子计算的潜力极为重要。但通常情况下,规模的增大通常伴随着更多的出错概率:使用的量子比特越多,发生的错误就越多。
早在90年代,就有人首次提出:“如果量子比特足够好,好到超越了一个叫做‘量子纠错阈值’的界限,对其进行扩展时,错误率可能不升反降,直到现在都还没有人实现这一点。”
Google Quantum AI团队等在《Nature》上发表的论文表明,随着量子处理器Willow在分组中使用更多的量子比特,错误得到了指数级的快速抑制。这项研究解决了困扰量子计算30年的突破量子纠错阈值难题,研究人员表示,如果对其进行扩展,设备性能足以实现大规模容错量子算法所需的运行要求。
这项研究由来自13个顶尖科研单位的200多名研究人员共同完成,凸显了合作的重要意义。
IBM:高阈值且低开销的容错量子存储
3月27日,IBM Quantum的研究人员提出了一种端到端量子纠错协议,该协议基于一系列低密度奇偶校验码实现容错存储。
对于基于标准线路的噪声模型,该方法实现了0.7%的错误阈值,与二十年来一直是错误阈值方面领先纠错码的表面码相当。在他们的纠错码族中,长度为n的纠错码的校验子测量周期需要n个辅助量子比特和1个带有CNOT门、量子比特初始化、测量且深度为8的线路。所需的量子比特连接是由两个边不相交的平面子图组成的6度图。
结果表明,假设物理错误率为0.1%,总共使用288个物理量子比特,可以保留近100万个逻辑量子比特进行近 100 万个校验子循环,而表面码需要近3000个物理量子比特才能实现上述性能。研究结果使得在近期的量子处理器上展示低开销的容错量子存储成为可能。
清华大学、中科大、北京量子院等:通过量子纠错保护逻辑量子比特之间的纠缠
纠缠是量子计算、量子密码学以及量子传感领域中最为重要的资源之一。然而,纠缠态也是很脆弱的,在实验中,其潜在优势会受到退相干效应的阻碍。
2024年3月6日,清华大学交叉信息研究院孙麓岩研究组、中国科学技术大学邹长铃研究组、北京量子信息科学研究院于海峰研究组开展合作,通过将量子信息编码到空间分离的微波模式中,利用玻色子量子模块实验性地实现了纠缠逻辑量子比特。
纠缠受到重复量子纠错的保护,与未受保护的逻辑量子比特相比,纠缠逻辑量子比特的相干时间提高了45%。此外,研究团队通过对每个逻辑量子比特进行独立的错误检测和后选择,证明了纯化的纠缠逻辑量子比特违反了贝尔不等式,测量到的贝尔信号超过了经典界限。
受保护的纠缠逻辑量子比特可应用于未来对量子基础以及量子网络应用的探索之中。
06
量子卫星
中国科学技术大学等:“济南一号”微型卫星实现实时空对地量子安全通信
图:微卫星和强量化地面站
来源:arXiv
2024年8月20日,由中国科学技术大学、中国科学院以及科大国盾量子技术股份有限公司等单位所组成的团队在实时空对地安全通信方面取得了重要突破。
虽然墨子卫星已证实了卫星量子通信的可行性,然而若要进一步扩大量子卫星星座的规模,依旧需要应对小型化、轻量化以及实时密钥交换等诸多挑战。
凭借技术创新,研究团队使量子卫星的载荷质量大幅降低至23公斤,成功研制出名为“济南一号”的微型卫星,有效减轻了卫星的负担,还借助其便携式地面站达成了实时空对地安全通信,为构建全球量子网络筑牢了根基。
研究团队实施了一个复用的双向卫星-地面光通信系统,允许同时传输量子密钥和经典数据。该设置使研究人员能够在一次卫星经过期间实现密钥提取,在一次操作中共享了最多59万位的安全密钥。
便携式地面站配备了可接收卫星量子信号的望远镜与专用探测器,具有便于组装和快速部署的特性,仅需三到五小时即可完成设置,这种灵活性使技术可供广泛的用户使用。
07
量子编程/云平台
IBM:强大且易用的软件开发工具包
随着量子计算研究的兴起,IBM意识到需要一个强大且易用的工具来帮助研究人员和开发者利用其量子硬件资源。
它从最初的基础框架不断迭代,以适应量子算法开发、量子电路设计等多种需求。从简单的支持少数量子比特的操作,逐步扩展到可以处理复杂的、多量子比特纠缠态相关的计算任务。
2024年3月6日,IBM宣布,自2月15日起,其开源量子计算软件开发工具包完整的Qiskit SDK 1.0版本已可通过PyPI安装。该版本具有性能更佳的 SDK;更稳定的 API;更精简的库集;为开源生态系统构建的SDK。Qiskit 1.0使用户能够构建和转译具有100多个量子比特的线路,并为未来1000多个量子比特工作负载奠定基础。
5月15日,IBM宣布将Qiskit扩展至整个软件开发栈。这次更新汇集了IBM为构建量子线路的所有工具,包括Qiskit SDK v1.x的稳定版本、由人工智能加持并内嵌在Qiskit转译服务中的量子线路优化、简化的Qiskit运行时服务、由生成式人工智能加持的Qiskit代码助手以及Qiskit无服务器开源工具。
Qiskit具有直观的编程接口,采用类似于传统编程语言的结构,让有编程基础的人可以快速上手;提供了可视化量子电路的功能,开发者可以清晰地看到量子比特在不同门操作下的状态变化, 对于理解量子算法的逻辑和结构非常有帮助,
除了为科研人员提供了一个高效的平台外,通过提供简单易懂的开发工具,Qiskit降低了量子计算学习的门槛,让更多学生和初学者能够接触和理解量子算法。
08
量子网络
哈佛大学等 | 中国科学技术大学
哈佛大学、AWS量子网络中心、麻省理工大学:首次在SiV色心体系实现双节点远距离纠缠
在实现用于长距离量子通信的实用量子网络时,一个关键挑战在于通过光纤基础设施相连接的量子存储节点之间如何实现稳固的纠缠。
2024年5月12日,来自哈佛大学、AWS量子网络中心、麻省理工大学的研究人员展示了一个由多量子比特寄存器构成的双节点量子网络,该网络基于纳米光子学金刚石腔中的硅空位(SiV)中心,并与电信光纤网络相集成。
通过将光子通信量子比特高效地双向量子频率转换到电信频率(1350纳米),研究展示了两个核自旋存储器通过40千米长的低损耗光纤线轴以及部署在波士顿地区城市环境中的一条35千米长的光纤环路所实现的纠缠,首次在SiV色心体系实现双节点远距离纠缠,这代表着朝着实用量子中继器以及大规模量子网络迈出了具有推动作用的一步。
中国科学技术大学:国际首个基于纠缠的城域量子网络
图:实验节点布局示意图
来源:Nature
2024年5月15日,中国科学技术大学研究团队首次采用单光子干涉在独立存储节点间建立纠缠,并以此为基础构建了国际首个基于纠缠的城域三节点量子网络。
为解决控制单光子相位的难题,团队设计并发展了一套非常精巧的相位控制方案:首先通过超稳腔稳频来压制控制激光线宽,其次通过光锁相环来构建读写激光间的相位关联,最后通过远程分时相位比对来构建两节点间的相位关联。
采用以上相位控制技术,并利用量子频率转换,团队成功实现了相距十几千米远的量子存储器之间的纠缠。以此为基础,研究团队构建了国际上首个城域三节点量子纠缠网络。该网络可以在任意两个量子存储器节点间建立纠缠。
该工作使得现实量子纠缠网络的距离由以往的几十米整整提升了三个数量级至几十公里,为后续开展盲量子计算、分布式量子计算、量子增强长基线干涉等量子网络应用奠定了科学与技术基础。
09
首次实现光子的分数量子反常霍尔态
图: 成果示意图。16个非线性“光子盒”阵列囚禁的微波光子强相互作用形成分数量子反常霍尔态
来源:Science
2024年,中国科学技术大学潘建伟、陆朝阳、陈明城教授等利用基于自主研发的Plasmonium(等离子体跃迁型)超导高非简谐性光学谐振器阵列,实现了光子间的非线性相互作用,并进一步在此系统中构建出作用于光子的等效磁场以构造人工规范场,在国际上首次实现了光子的分数量子反常霍尔态。
这是利用“自底而上”的量子模拟方法进行量子物态和量子计算研究的重要进展。相关成果于5月3日发表在国际学术期刊《科学》上。
团队在国际上自主研发并命名了一种新型超导量子比特Plasmonium,打破了目前主流的Transmon(传输子型)量子比特相干性与非简谐性之间的制约,用更高的非简谐性提供了光子间更强的排斥作用。
进一步,团队通过交流耦合的方式构造出作用于光子的等效磁场,使光子绕晶格的流动可积累Berry(贝里)相位,解决了实现光子分数量子反常霍尔效应的两个关键难题。同时,这样的人造系统具有可寻址、单点位独立控制和读取,以及可编程性强的优势,为实验观测和操纵提供了新的手段。
诺贝尔物理学奖得主Frank Wilczek评价,这种“自底而上”、用人造原子构建哈密顿量的途径是一个“非常有前途的想法”为基于任意子的量子信息处理迈出了重要一步。
10
原子钟
科罗拉多大学博尔德分校 | 加州理工学院、斯坦福大学 | 中国科学技术大学
科罗拉多大学博尔德分校:向核钟开发迈出巨大一步
图:钍-229核钟跃迁的VUV梳状光谱
来源:Nature
从投稿到接收仅用时27天的科研成果是什么概念?
2024年9月4日,科罗拉多大学博尔德分校、美国国家标准与技术研究院(NIST)等组成的研究团队在《Nature》期刊上发表了题为“Frequency ratio of the Th-229m nuclear isomeric transition and the Sr-87 atomic clock”(钍-229m核异构跃迁和锶-87原子钟的频率比)的研究论文。
在这项研究中,张传坤等人通过一个定制的频率梳驱动原子核中的跃迁,向核钟的开发迈出了巨大的一步,这种核钟有可能记录到支配物理世界的基本常数中最细微的变化。
研究人员使用真空紫外(VUV)频率梳直接激发固态CaF2基质材料中的窄钍-229(Th-229)核钟跃迁,并确定绝对跃迁频率。他们将基频梳稳定至JILA的锶-87(Sr-87)时钟,并通过使用飞秒增强腔将基频相干地上变频到VUV范围内的七次谐波。
结果显示,钍-229的核跃迁频率为2,020,407,384.335(2) kHz,并且与锶-87原子钟的频率比为4.707072615078(5)。
这一结果相比以往的测量精度提高了六个数量级,极大推进了钍-229核时钟的研究。研究结果标志着基于原子核的固态光钟的开始,并首次将用于基础物理研究的核钟与原子钟进行比较。
这项工作代表了精密计量学、超快强场物理、核物理和基础物理的融合。
加州理工学院、斯坦福大学:开启量子计算机+原子钟的未来
2024年10月9日,加州理工学院与斯坦福大学在《自然》上发表论文,展示了如何在基于光镊的光钟中执行量子计算,以使时钟更加精确。
研究人员构建了一个可扩展的通用量子处理器,其中中性原子量子比特通过超窄光跃迁编码。相同的实验系统可以用作中性原子光钟,目前它是最稳定的频率参考。
该系统是一个由囚禁在光镊阵列中的中性锶-88原子组成的光钟,配备了通用量子计算和基于辅助量子的重复读取能力。光钟量子比特展现出了高保真度的纠缠门,实现了创纪录的中性原子受控Z(CZ)门保真度,其值为99.62(3)%。
结合高保真度的全局单量子比特旋转、单点控制以及中间线路读取(MCR),能够运用基于线路的方法来实现用于纠缠态制备和读取的策略,以提升计量精度。
这项研究为具有中性原子的混合处理器-时钟设备奠定了基础,指向了与量子传感器相连的量子处理器实际应用的未来。
中国科学技术大学:为建立超高精度的光频标基准奠基
中国科大潘建伟、陈宇翱、戴汉宁等组成的研究团队,成功研制了万秒稳定度和不确定度均优于 5×10 -18(相当于数十亿年的误差不超过一秒)锶原子光晶格钟。相关成果于1月12日发表于国际计量领域学术期刊《计量学》(Metrologia)。
根据公开发表的数据,该系统不仅是当前国内综合指标最好的光钟,也使得我国成为继美国之后第二个达到上述综合指标的国家。
在该工作中,研究团队实现了锶原子(87Sr)的激光冷却,并将其束缚在长寿命的一维光晶格中,利用一束预先锁定到超稳腔的超稳激光来探寻锶原子钟态跃迁,并实现了光钟闭环运行。研究团队还对Sr 1光钟的系统频移因素开展了逐项评定,最终得到其系统不确定度为4.4 ×10 -18相当于72亿年仅偏差1秒。上述性能指标表明该光钟系统已部分满足“秒”重新定义的要求。
该成果对未来实现远距离光钟比对、建立超高精度的光频标基准和全球性光钟网络奠定了重要的技术基础。
素材来源官方媒体 / 网络新闻、光子盒