文章目录
- 1 量子芯片
-
- 1.1 超导量子芯片
-
- 1.1.1 超导量子计算的进展
- 1.2 半导体量子芯片
-
- 1.2.1 基于电荷位置的量子比特
- 1.2.2 基于自旋的量子比特
- 1.2.3 半导体量子计算也正在从科研界转向工业界
- 1.3 其他类型体系的量子计算体系
-
- 1.3.1 离子阱量子计算
- 1.3.2 原子量子计算
- 1.3.3 核自旋量子计算
- 1.3.4 拓扑量子计算
- 2 量子计算机硬件
-
- 2.1 量子芯片支持系统
- 2.2 量子计算机控制系统
- 3 量子计算机
-
- 3.1 量子计算机整体架构
-
- 3.1.1 **量子计算的定位:[异构计算**]
- 3.1.2 量子程序代码构成:宿主代码 + 设备代码
- 3.2 量子程序架构(设备代码的架构)
-
- 3.2.1 量子高级语言
- 3.2.2 量子汇编语言的编译原则
- 3.2.3 量子程序的可执行文件
1 量子芯片
1.1 超导量子芯片
超导量子计算是基于超导电路的量子计算方案,其核心器件是超导约瑟夫森结。
超导量子电路在设计、制备和测量等方面,与现有的集成电路技术具有较高的兼容性,对量子比特的能级与耦合可以实现非常灵活的设计与控制,极具规模化的潜力。
由于近年来的迅速发展,超导量子计算已成为目前最有希望实现通用量子计算的候选方案之一。超导量子计算实验点致力于构建一个多比特超导量子计算架构平台,解决超导量子计算规模化量产中遇到的难题。
超导电路类似于传统的电子谐振电路,这种谐振电路产生了谐振子的能级。
缺点:这种三比特操作的保真度较低,提高保真度需要进一步抑制电荷噪声。
1.2.2 基于自旋的量子比特
这是美国普林斯顿大学 Petta 研究组基于 Si/SiGe 异质结制备的两自旋量子比特芯片,
下图表示通过合适的激光可以将离子调节到基态:
研究进展:
国外:
2016 年,美国马里兰大学 C. Monroe 组基于离子阱制备了 5 比特可编程量子计算机,其单比特和两比特的操作保真度平均可以达到 98%,运行 Deutsch–Jozsa 算法的保真度可以达到95%;
除了量子计算,离子阱还能用来进行量子模拟。2017 年,C. Monroe 组使用了 53 个离子实现了多体相互作用相位跃迁的观测,读出效率高达 99%,是迄今为止比特数目最多的高读出效率量子模拟器。
虽然不能单独控制单个比特的操作,但是这也证明了离子阱量子计算的巨大潜力。
对于两比特操控速度问题,2018 年,牛津大学的 Lucas 组通过改进激光脉冲,达到了最快 480 ns 的操作速度,展现了离子阱量子计算的丰富前景。
国内:
清华大学的金奇奂研究组和中国科学技术大学的李传锋、黄运峰研究组已经实现了对一个离子的操控,做了一些量子模拟方面的工作;
清华大学计划在五年内实现单个离子阱中 15-20 个离子的相干操控,演示量子算法,说明中国也已经加入到了离子阱量子计算的竞赛中。
1.3.2 原子量子计算
原理:
不同于离子,原子不带电,原子之间没有库伦相互作用,因此可以非常紧密地连在一起而不相互影响。原子可以通过磁场或者光场来囚禁,用后者可以形成一维、二维甚至三维的原子阵列,如下图:
1.3.4 拓扑量子计算
实现原理:
利用的是一种叫做非阿贝尔任意子的准粒子。
实现过程:
· 首先要在某种系统中创造出一系列任意子-反任意子;
· 然后将这些任意子的两种熔接(fusion)结果作为量子比特的两个能级;
· 再利用编织(braiding)进行量子比特的操控;
· 最后通过测量任意子的熔接结果得到比特的末态。
优点:
这一系列操作对噪声和退相干都有极大地免疫,因为唯一改变量子态的机制就是随机产生的任意子-反任意子对干扰了比特的编织过程,但这种情况在低温下是非常罕见的,噪声和其他量子比特系统常见的电荷等相比,影响是非常小的。
研究进展:
现在国际上进行拓扑量子计算研究的实验组主要是荷兰代尔夫特理工大学的 Kouwenhoven研究组和丹麦哥本哈根大学的 Marcus 研究组。
从 2012 年首次在半导体-超导体异质结中观察到马约拉纳零模的特征开始,到 2018 年观察到量子化的电导平台,Kouwenhoven 研究组的实验已经让大多数科学家认同了可以在这种体系中产生马约拉纳费米子。不仅如此,进行拓扑量子计算的 Al-InSb 和 Al-InP 两种半导体-超导体耦合的纳米线阵列已经先后在实验中实现。未来将尝试进行编织实验,实现世界上第一个拓扑量子比特。
最近在量子反常霍尔绝缘体-超导结构中发现的一维马约拉纳模式也被认为可以用于拓扑量子计算,但是基于马约拉纳费米子进行的拓扑量子计算仍然不能满足单比特任意的旋转,它仍然需要和其他形式的量子比特互补或者通过某种方法进行近似的量子操作,不过,对高质量量子比特的追求仍然推动着科学家研究拓扑量子比特。
不同于其他美国巨头公司,微软公司在量子计算方面押注在拓扑量子计算,其与荷兰代尔夫特理工大学、丹麦哥本哈根大学、瑞士苏黎世理工大学、美国加州大学圣芭芭拉分校、普渡大学和马里兰大学在实验和理论上展开了广泛的合作,目标是五年内制备出世界上第一个拓扑量子比特,其拓扑保护的时间可长达一秒。
中国在拓扑量子计算方面也开始发力,2017 年 12 月 1 日,中国科学院拓扑量子计算卓越创新中心在中国科学院大学启动筹建,国科大卡弗里理论科学研究所所长张富春任中心负责人。未来几年可能是中国拓扑量子计算的高速发展期。
无论未来的量子计算发展情况如何,中国在各个量子计算方式上都进行了跟随式研究,这是我国现有的技术发展水平和国家实力的体现。随着国家对相关科研的进一步投入,相信未来在量子计算的实现方面,也可以领先于世界其他国家,实现弯道超车。
2 量子计算机硬件
量子芯片不等同于量子计算机,它仅仅是量子计算机中的一个核心结构。
量子计算机,是建立在量子芯片基础上的运算机器。其中最关键的两点是:
如何将运算任务转化为对量子芯片中量子比特的控制指令;
如何从量子芯片上量子比特的量子态中提取出运算结果。
除此以外,量子计算机需要提供能维持量子芯片运行的基本环境。
这些都需要特殊的硬件系统来实现,它们实现了量子计算机软件层到量子计算机芯片层的交互。
量子计算机硬件,主要包含两个部分:
· 量子芯片支持系统 —— 用于提供量子芯片所必需的运行环境;
· 量子计算机控制系统 —— 用于实现对量子芯片的控制,以完成运算过程并获得运算结果。
由于目前国际主流量子计算研发团队主要聚焦超导量子芯片与半导体量子芯片这两种体系,同时它们的量子计算机硬件有相当多的共性,因此以下将具体展开介绍这两种体系适用的量子计算机硬件。
2.1 量子芯片支持系统
超导量子芯片和半导体量子芯片对运行环境的需求类似,最基本的需求均为接近绝对零度的极低温环境。
稀释制冷机能够提供量子芯片所需的工作温度和环境。
在 2018 年 IBM’s inaugural Index 开发者大会上,IBM 展示的“50 位量子计算机原型机”,实际上就是维持 50 位量子芯片运行的稀释制冷机以及其内部的线路构造。
-
抑制环境电磁辐射噪声
环境电磁辐射噪声是较难控制的环境干扰,其中又可以分为电场辐射以及磁场辐射。
工作于极低温环境的电磁屏蔽技术,一直是伴着量子计算研究人员的需求发展的。下图展示了伯克利大学 Sidiqqi 研究组使用的一种红外辐射屏蔽技术。他们设计了用于包裹量子芯片的屏蔽桶,并在桶的内壁使用了一种黑色的特殊涂层,用于增强对红外辐射的吸收。
2.2 量子计算机控制系统
量子计算机控制系统提供的是以下两个关键问题的解决方案:如何将运算任务转化为对量子芯片中量子比特的控制指令;
如何从量子芯片上量子比特的量子态中提取出运算结果。
其背后的基础是:
如何实施量子逻辑门操作;
如何实施量子比特读取。
- 如何实施量子逻辑门操作
量子逻辑门操作的本质是使一组量子比特经过指定的受控量子演化过程。 例如,使得量子比特从基态(或者称 |0? 态)到激发态(或者称 |1? 态),可以借助一个单量子比特 X 门来实现。
随着量子芯片集成度的提高,纯粹采用商用仪器搭建量子芯片的控制与读取系统的方法的弊端越来越大:成本昂贵,功能冗余,兼容性差,难以集成,并不满足未来量子计算机的发展需要。为量子计算机专门设计并研制适用的量子计算机控制系统,是明智的选择。
· 量子计算机控制系统的研究进展
2016 年,苏黎世仪器公司与代尔夫特理工大学研究团队成立的 QuTech 公司合作,研制了一套可用于 7 位超导量子芯片工作的集成量子芯片测控系统,包含最高可扩展至 64 通道的 AWG 以及同步的高速 ADC 采集通道。
2017 年底,是德科技自主研发了一套 100 通道的量子芯片测控系统,具备百 ps 级系统同步性能与百 ns 级量子芯片信 实时处理能力,最高可用于 20 位超导量子芯片完整运行。
2018 年,合肥本源量子计算科技有限责任公司也研制出 40 通道的量子芯片测控系统,可以应用于 8 位超导量子芯片或者 2 位半导体量子芯片,这是国内第一套完整的量子计算机控制系统。
3.1.2 量子程序代码构成:宿主代码 + 设备代码
量子计算的程序代码实际执行中分为两种:
-
运行在 CPU 上的宿主代码(Host code)—— 主要用于执行不需要加速的任务,并为需要加速的任务提供需要的数据;
-
运行在量子芯片上的设备代码(Device code)—— 主要用于描述量子线路,控制量子程序在量子芯片上的执行顺序,以及数据的传输。
不同类型的代码由于其运行的物理位置不同,编译方式和访问的资源均不同,这跟英伟达公司推出的用 GPU 解决复杂的计算问题的并行计算架构 CUDA 非常类似。
以下所提及的量子程序,指的是 Device code。
3.2 量子程序架构(设备代码的架构)
3.2.1 量子高级语言
与经典计算机语言类似,描述量子程序的语言也有高级语言与低级语言之分。
量子高级语言,类似于经典计算机语言中 C++。在描述量子线路时,不需要考虑量子芯片的底层物理实现,包括可执行量子逻辑门的种类,量子比特的连通性等,这就像一个经典的程序设计师并不需要考虑底层的执行芯片是 x86 架构,还是 RISC 架构一样。
QPanda,QRunes 均属于量子高级语言。
量子高级语言的作用:
用于描述量子线路的逻辑门构成、量子程序段之间的执行顺序,如 Qif,QWhile 等,以及内存之间的通信。
3.2.2 量子汇编语言的编译原则
量子高级语言会根据底层芯片的特点,通过量子程序编译器,编译为量子汇编语言。
量子程序编译器一般会考虑两个方面:
- 量子芯片可执行的量子逻辑门种类
- 量子比特的连通性
不可直接执行的量子比特逻辑门拆分
量子芯片提供的可直接执行的逻辑门是完备的,即可以表征所有的量子比特逻辑门,因此,如果量子高级语言描述的量子程序中包含了量子芯片不可直接执行的量子逻辑门,量子程序编译器会根据量子芯片提供的量子逻辑门将其转化为可执行量子逻辑门构成的序列。
量子比特连通性与不连通门的转换
相同数量的量子比特对于不同的量子芯片结构,可执行两量子比特逻辑门的量子比特对可能完全不同。
目前常见的量子芯片结构有链式结构,十字结构,以及全连通结构。
如果量子高级语言描述的量子程序中包含量子芯片不可直接执行的两量子比特逻辑门,量子程序编译器会根据量子芯片的连通性,利用交换门和可执行的两比特门的序列,取代量子程序中的两量子比特逻辑门。
例如下图:

左边是一个三量子比特的链式结构量子芯片,可执行两量子比特逻辑门的量子比特对有 {{1,2},{2,3}},图中显示的 CNOT 1,3 对于此量子芯片是不可执行的逻辑门,因为对于链式结构,量子比特成链状排布,每个量子比特只能与其相邻的两个量子比特执行两量子比特逻辑门。因此,我们可以先用 SWAP 1,2 进行交换、然后进行操作 CNOT 2,3、最后再用 SWAP1,2 换回原来的位置,这样构成的量子逻辑门序列就可以取代在原来结构中的 CNOT1,3。
3.2.3 量子程序的可执行文件
对于经典程序来说,汇编语言转化为计算机可直接执行二进制文件,即可被经典计算机执行;而量子芯片可直接执行的文件并非一串 0 1 组合的二进制文件,而是由测控设备产生的精密的脉冲模拟信 ,因此对于量子汇编语言,应该转化成测控设备所能执行的文件。
此文件中不仅包含着每个量子比特逻辑门的脉冲波形,还需要包含波形的执行顺序,根据波形执行顺序的表征形式不同,量子计算硬件架构可细分为两类。
-
顺序执行的传统量子体系结构的可执行文件:量子程序的整段波形文件
在传统的量子体系结构中,波形执行顺序体现在波形文件中,即编译器将量子汇编程序中的量子比特逻辑门的波形,按照执行顺序拼接为一个整体的波形,并将此波形以二进制文件的形式存放至测控设备的内存中。
优点:
测控设备可以从内存中直接读取波形,并施加到量子芯片上,延时极短,执行效率很高;
缺点:
但由于上位机与测控设备之间的通信时间很长,远大于量子比特的退相干时间,即在量子比特完成测量发送至上位机,以及上位机根据测量结果将后续要执行的波形文件发送至测控设备内存的期间,量子比特已经退相干,无法继续执行量子比特逻辑门。
因此,这种架构只能运行顺序执行的上位机发送的波形文件,在执行期间不可改变波形的执行顺序,进而无法执行包含基于测量结果的跳转量子程序。
改进:
将量子程序中可能执行的量子程序段的波形,全部上传至测控设备的内存中,当测量设备得到量子比特的测量结果时,根据测量结果决定接下来输出的波形在内存中的地址,且整个反馈过程的延时远小于量子比特的退相干时间。 -
增强扩展性的新量子体系结构
增强扩展性的新量子体系结构的可执行文件构成:所有逻辑门的波形文件 + 微处理器程序
为了降低任意波形发生器的内存开销,增加系统的可扩展性,目前已有科研团队提出另一种量子计算机架构:上位机-微处理器-测控设备-量子芯片架构。
优点:
测控设备无需存放量子程序对应的所有波形,大大减少了内存开销;
缺点:
通过执行微处理器程序控制测控设备,对微处理器的执行速度要求较高。
文章知识点与官方知识档案匹配,可进一步学习相关知识OpenCV技能树首页概览11325 人正在系统学习中
声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!