当前位置:首页 > 资讯动态

未来热门科技:AI+量子计算

发布时间:2019-08-23 14:35:00

我国量子计算新进展:浙江大学、中科院物理所等国内单位组成的团队通力合作,开发出具有20个超导量子比特的量子芯片,并成功操控其实现全局纠缠,刷新了固态量子器件中生成纠缠态的量子比特数目的世界记录。

我国量子计算新进展:浙江大学、中科院物理所等国内单位组成的团队通力合作,开发出具有20个超导量子比特的量子芯片,并成功操控其实现全局纠缠,刷新了固态量子器件中生成纠缠态的量子比特数目的世界记录。

量子计算(Quantum Computation)是一种遵循量子力学规律调控量子信息单元进行计算的新型计算模式。对照于传统的通用计算机,其理论模型是通用图灵机;通用的量子计算机,其理论模型是用量子力学规律重新诠释的通用图灵机。从可计算的问题来看,量子计算机只能解决传统计算机所能解决的问题,但是从计算的效率上,由于量子力学叠加性的存在,目前某些已知的量子算法在处理问题时速度要快于传统的通用计算机。

量子计算的概念最早由阿岗国家实验室的P. Benioff于80年代初期提出,他提出二能阶的量子系统可以用来仿真数字计算;稍后费曼也对这个问题产生兴趣而着手研究,并在1981年于麻省理工学院举行的First Conference on Physics of Computation中给了一场演讲,勾勒出以量子现象实现计算的愿景。1985年,牛津大学的D. Deutsch提出量子图灵机(quantum Turing machine)的概念,量子计算才开始具备了数学的基本型式。

我们用Trend analysis分析了量子计算领域的研究热点。


量子计算

上图是当前该领域的热点技术趋势分析,通过Trend analysis分析挖掘可以发现当前该领域的热点研究话题有quantum computer、quantum physics、quantum information、quantum mechanics、logic gates、open system、fault tolerance等。

根据Trend analysis的分析结果我们发现artificial neural network是该领域的研究热点之一。在上世纪90年代,Wichita State University物理学教授Elizabeth Berman就开始研究量子物理与人工智能的结合。当时,大多数人都认为她是在把油和水进行混合。她回忆说,我花了很长时间才发表这篇论文,与神经网络有关的杂志会说“什么是量子力学?”,物理杂志则会说“神经网络是什么?”。

但是现在,从谷歌、微软、IBM等科技巨头拼命往量子机器学习领域砸钱的举动看,量子计算和人工智能的结合已是未来科技的最大热门。谈及此处不得不提的是,微软的拓扑量子计算机最早的用途之一就是帮助人工智能研究人员利用机器学习,加快训练算法。比如,把人工智能助理小娜的算法训练时间从一个月缩短到一天。

阿里巴巴达摩院发布的2019十大科技趋势预测中提到,由应用驱动和技术驱动所带来的Domain-specific 体系结构的颠覆性改变,将加速人工智能甚至是量子计算黄金时代的到来。如今,量子计算已被视为科技行业中的前沿领域,IBM、谷歌、阿里巴巴、百度等科技巨头相继加大了在该领域的研发力度,而量子计算机的计算能力也将为人工智能的发展带来变革。

来源: 学术头条