当前位置:首页 > 百科 > 正文

人工智能 硬件(ai硬件)

人工智能的大部分宣传都是关于算法的。在机器学习方面处于全球领导地位的Google最近发表了一篇文章,介绍了AlphaGo Zero如何使用先进的强化学习算法,成功地成为Go的主人,打败所有以前的版本。但是,尽管公司和组织在搜索算法设计和数据科学领域的顶尖人才方面争得不可开交,但真正的新闻点可能是占据重要位置的硬件!

摩尔定律的扁平化

首先,让我们简单的回顾一下过去的历史:1958年,第一个集成电路包含2个晶体管,规模相当大,占地1平方厘米。到1971年“摩尔定律”在集成芯片性能的指数级增长中变得明显,与之前一样,2,300个晶体管封装在同一个表面上。到2014年,IBM P8处理器拥有更多的42亿个晶体管和16个内核,全部包装在650平方毫米的地方。我们很快就会达到这个在给定的硅片上可以封装多少个晶体管的极限。

此外,特别是在模式识别(例如理解语音,图像等)中的机器学习应用需要大量的并行处理。当Google宣布其算法能够识别猫的图像时,他们没有提及的是,其软件需要16,000个处理器才能运行。当你可以在云中的服务器场上运行算法时,这并不是一个太大的问题,但是如果要求是必须在小型移动设备上运行它们呢?这越来越成为一个主要的行业需求。

人工智能 硬件(ai硬件)  第1张

在终端运行先进的机器学习功能将为用户带来巨大优势,同时解决了许多数据隐私问题。想象一下,如果Siri不需要进行云计算,但能够处理智能手机硬件上的所有数据和算法。可能玩了很久的游戏或是通话时间过长使得手机发热严重,而等到在手机上也可以运行机器学习功能的时候,可能就不会出现这种情况了。

解决瓶颈

设备升温的原因和我们目前的计算机硬件设计的主要问题是所谓的“冯·诺依曼瓶颈(von Neumann bottleneck)”:传统的计算机体系结构将处理与数据存储分开,这意味着数据需要来回传输从一个地方到另一个地方加班计算发生。并行性通过分解计算和分配处理来解决这个问题的一部分,但是仍然需要在最后转移数据,以便将所有内容协调成所需的输出。那么如果有办法摆脱硬件瓶颈呢?如果处理和数据驻留在同一个地方,不需要四处移动,产生热量,并消耗这么多的能量呢?毕竟,这就是我们的大脑的工作方式:我们没有像计算机那样有独立的处理和数据存储区域,一切都发生在我们的神经元上。

人工智能 硬件(ai硬件)  第2张

英特尔的Loihi 神经形态芯片

在人工智能领域,我们的大脑功能并不是什么新鲜事物。现在,我们已经在使用神经网络进行深度学习。但是,我们通过使用机器学习算法和并行处理来模拟神经元的功能。但是如果不采用仿效的方式,有像我们的大脑一样运作的电脑呢?自从二十世纪七十年代以来,人们已经设想将大脑功能实际映射到硬件上,换句话说直接映射大脑结构的硬件。这种称为“神经形态计算”的方法最近正在被商业化,英特尔和高通等公司最近宣布推出用于商业用途的神经形态芯片。

神经形态芯片可以应用在人工智能应用的终点,这是非常令人兴奋的消息。不过,它们也有可能将机器的智能提升到一个全新的水平。通过使用电子技术,而不是软件来开发机器认知,我们可能能够实现一般人工智能的梦想,并创建真正的智能系统。

量子:计算的大爆炸

但是,对计算产生真正的巨大冲击并不是来自神经晶体芯片(尽管有很大的希望,它们可能只有小众应用),而是来自利用量子物理。随着快速计算的需求增加,我们解决真正困难问题的雄心也在增加。如果我们能够计算出安排一系列分子来治疗癌症的最佳方法呢?

人工智能 硬件(ai硬件)  第3张

IBM的量子计算机

这个问题实际上是减少了迄今为止所有的癌症研究,目前是通过试错法进行的。经典计算不能解决这样的问题,即参数的组合在几次迭代之后会“爆炸”。量子计算有可能一次计算所有可能的组合,并在几秒钟内到达正确的答案。量子计算可以解决许多类似的优化问题。考虑优化复杂业务中的资源分配,甚至是在经济中进行资源分配,并做出能够支持最佳策略的预测或者考虑将密码因子分解。

量子计算机正在快速发展:我们现在处于50个量子位的水平。让我们把这个数字放在前面,一个32位的量子计算机可以处理40亿个系数和265GB的信息,这可不是太令人印象深刻,你可能会说,因为你可以在几秒钟内在笔记本电脑上运行类似的程序。但是一旦我们达到了64位的量子计算机的极限,这个故事可能就会产生变化。

这样的计算机可以一次计算出互联网上所有的信息,或者74“艾字节”(十亿十亿GB),这个处理在现在的超级计算机上要花费很多年的时间。我们已经非常接近了!然而,一旦我们开发出256位的量子计算机,真正的“游戏规则改变者”就会来临。这样一台计算机将能够计算出宇宙中所有原子的数量产生更大的计算。量子计算是宇宙计算,它对人类文明的影响可以是巨大而深刻的。