首页 资讯正文

借助专用芯片,边缘上的 AI 快速发展

借助专用芯片,边缘上的 AI 快速发展

英特尔 Movidius 视觉处理单元 (VPU) 可在 USB 中插入各种设备。

边缘计算使计算和数据存储更接近需要的地方,以改进响应时间并节省带宽。现在,随着边缘计算能力的提高和人工智能算法的提高,越来越多的人工智能被整合到边缘设备中,从物联网设备到智能手机,到汽车。

根据《福布斯》杂志最近的一个报道,随着边缘计算机的发展,只有一部分传感器生成的数据被发送到云中,从而节省了带宽和云存储成本。

使用通过云中的机器学习在边缘训练的 AI 模型可以更快地做出决策。部署在边缘的深度学习模型可能会看到较慢的推断。云的 GPU 供电性能不可用。为了弥补这一差距,芯片制造商正在制造加速器,以加速模型在边缘的推断。处理器接管运行深度学习模型所需的更复杂的计算。这可以加快边缘层摄入的数据的预测和分类速度。

提到了三个人工智能加速器:NVIDIA Jetson、英特尔Movidius和Myd里亚芯片,以及谷歌边缘TPU。

NVIDIA Jetson 是为边缘而建的;编程与企业对应程序兼容,但 GPU 的功耗低于为服务器供电的 GPU。最近增加的是杰森纳米,它配备了128核心GPU。与树莓派类似,开发孩子使业余爱好者和专业人士能够构建人工智能和物联网解决方案。软件堆栈称为 JetPack,它附带了驱动程序和库,可以在边缘运行机器学习和 AI 模型。TensorFlowPyTorch 型号可以转换为 TensorRT,这是一种针对精度和速度优化的格式。

英特尔莫维迪乌斯和迈里亚德芯片来自英特尔在 2016 年收购莫维迪乌斯。利基芯片制造商制造了用于无人机和虚拟现实设备计算机视觉处理器。旗舰产品是 Myriad,专为处理图像和视频流而打造。它被描述为视觉处理单元 (VPU),因为它能够处理计算机视觉。该芯片封装在神经计算棒中,可同时使用 x86 和 ARM 设备。该软件平台旨在优化芯片的机器学习模型。它可以插入树莓派运行推断;芯片可在 USB 记忆棒或附加卡上提供,可连接到 PC、服务器和边缘设备。

Google 边缘张力处理单元 (TPUs) 加快了云中的机器学习工作负载。使用 Google 云平台的客户可以连接到云 TPUs 以平衡处理器速度、内存和高性能存储资源。Edge TPU 旨在运行边缘,最近宣布以补充云 TPU。它使训练模型的推断允许在边缘执行。感知用途包括预测性维护、机器视觉和语音识别。与 NVIDIA 和英特尔边缘平台不同,Google Edge TPU 无法在边缘运行 TensorFlow 以外的型号。

设备制造商三星也盯着边缘

电子巨头三星也把人工智能计算放在了边缘。在三星 Next 最近发表的一次采访中,三星 NEXT Ventures 的董事总经理 Brendon Kim 概述了他对边缘计算的愿景。

Kim 说:"AI 将嵌入到我们所做的一切、我们接触的一切以及我们使用的一切中。"许多需要做的就是边缘计算投资,"Kim表示。

三星的计划包括到2022年,在人工智能专用研究中心增加1000名科学家,作为220亿美元先进技术投资的一部分。

三星正在研究从观察人类培训师中学习的人工智能,而不是从数据库中的数百万个样本中学习,利用强化学习和模仿学习领域的进步。作为这一努力的一部分,三星已经资助了一家初创公司,Coveriant。加州大学伯克利分校的这一附带利益是教授工业机器人的概念任务,这些任务可以应用于各种情况。目前的做法是编程操作,AI驱动的机器人可以执行相同的方式每次。

Kim 设想为 AI 优化的边缘处理器,以便从编排、为目的协调单独的处理器中获得提升。这些可能是小型云,可以将边缘计算的优势与云中计算功能相结合。

Kim说,三星每年销售5亿台设备,公司致力于使它们智能化。

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

本文链接:https://www.chinaai.com/zixun/6151.html

评论