首页 资讯正文

“光速”运行的人工智能

“光速”运行的人工智能

人工智能的爆发式增长急待算力的快速提升。两篇报道中论述的光学计算机或许能提供足够的算力,并为人工智能相关硬件带来巨变。

人工智能正在重塑各行各业,例如医疗诊断、自动驾驶和语言翻译。然而,现代社会正在快速增长的数据量对电子计算机硬件的速度和功耗都提出了巨大挑战。相关问题已经成为人工智能发展的突出羁绊。根据发表于《自然》的文章,徐兴元等人[1]以及Feldmann等人[2]研制的光学计算机通过驾驭光的特性可以提升人工智能运算能力。他们的演示或许能推动光学计算技术的发展。

随着人工智能的崛起,传统的电子计算机技术渐渐逼近性能极限,并且开始跟不上可处理数据量的快速增长。在各类人工智能技术中,人工神经网络由于性能优越,被广泛用于智能任务中。这种神经网络利用多层互联的人工神经元进行复杂的数学运算[3]。其中占用绝大多数计算资源的基础运算被称作“矩阵向量乘法”(matrix–vector multiplication)。

人们付诸了许多努力来设计和实现专用电子计算系统,以提升人工智能网络的处理能力。其中定制类芯片已经取得了尤为可观的成绩,包括专用集成电路[4]、类脑计算器[5]、记忆体内计算器[6](通过忆阻器阵列实现存算一体化)。

来源:pixabay

在电子计算机中,电子是信息的载体,人们一直相信光子也是可选替代之一。因为光谱所涵盖的波长很宽,不同波长的光子可以在互不干扰的情况下实现频分复用(并行传输)和同步调制(加以某种转换以承载信息)。以此方式传播的信息在光速下延迟最小。此外,无源传播(无需额外功率输入)意味着极低的功耗[7],并且相位调制(调整光波的量子相位)可在40千兆赫兹以上频率轻松实现光的调制和检测[8]。

过去几十年,光纤传输取得了巨大的成功。然而,利用光子进行计算、尤其是实现规模和性能可以媲美前沿电子处理器的光子计算技术仍面临挑战。难点在于:还没有适用的并行运算机制,缺乏可适应人工智能高速非线性(复杂)响应的材料,无可扩展并集成到计算机硬件中的光学器件。

好消息是,被称为光学频率梳(光梳)[9]的技术在过去几年的发展为集成光学处理器带来了新的机遇。光梳可以发射数千至数百万在频率上等距致密分布的尖锐光谱。这种技术在光谱学、光学时钟度量和通信等多个领域取得了不俗的成绩。光梳相关理论在2005年获得了诺贝尔物理学奖。光梳可以被集成到计算机芯片中[9],为光学计算提供低功耗能量源。该系统特別适合通过波分复用实现数据的并行处理。

徐兴元及其同事利用这种架构制备了一款通用集成光学处理器。该处理器可以执行图像处理应用中被称作卷积的矩阵向量乘法运算。他们实现卷积的方法很巧妙:首先通过光的色散(其中光的传播速度取决于波长),让波分复用光学信号产生不同时间延迟,再让这些信号在与光的波长相关的维度上混合。

通过充分利用宽裕的光子波长范围,徐兴元等人对不同卷积运算实现了真正意义上的并行处理。其光学计算单核每秒操作次数高于十万亿次,而且仅受限于数据吞吐量。该研究另一个值得称道的方面,是作者给出了他们的卷积运算处理器应该如何接入实际应用中。特别是他们建议将此种处理器用于光学-电子混合框架中,例如光纤通讯过程中的计算。

Feldmann及其同事也独立构造了一款可执行二维光学信号卷积相关运算的集成光学处理器。该方案将光梳技术用于基于相变材料(可在无定形相和晶相之间切换)的记忆体内计算架构上。作者通过波分复用实现了数据的充分并发输入并在集成的相变材料单元阵列上执行矩阵向量乘积运算。

这种高度并发的框架具有单步内高速处理整幅图片的潜力。而且,理论上可以借助商业化生产工艺大幅扩展该系统,并有望在不远的将来支持原位机器学习。因为卷积过程基于无源传输,理论上使得光学处理器核心能以光速低功耗运行。该特性将为诸如云计算等高功耗应用带来巨大价值。

当传统电子计算技术的发展面临种种挑战,令人振奋的是集成光学技术作为其潜在继承者开始崭露头脚并有希望为未来的计算机架构提供前所未有的性能。然而,构建一款实际可用的光学计算机需要深度跨学科攻坚,需要材料科学、光学、电子学以及其它学科的通力合作。虽然这里报道的光学处理器具有较高的单位面积算力和潜在的可扩展性,全光学计算的规模(即光学神经元数量)仍较小。此外,计算单元中存在本身就吸收光的材料,而且电信号和光信号需要经常相互转换,系统能效因此受限。

有别于一维或二维线性卷积,该领域另一个研究方向是开发先进的非线性集成光学计算架构。通过将电子电路和数千或是数百万的光子处理器集成到一个合适的架构中,这种同时发挥两种处理器优势的电子-光学混合框架有望在不久的将来颠覆人工智能硬件。它将为通讯、数据中心运营、云计算等领域带来重要应用价值。

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

本文链接:https://www.chinaai.com/zixun/6277.html

发表评论

评论列表(0人评论 , 8993人围观)
☹还没有评论,来说两句吧...