雷竞技注册
新闻

人工智能硬件综述:神经形态芯片和神经网络soc

2019年7月18日通过罗宾·米切尔

AI算法需要大量资源才能发挥作用。什么硬件可以在边缘运行它们?

AI算法需要大量资源才能发挥作用。什么硬件可以在边缘运行它们?

本周,英特尔宣布了一项新的神经形态系统使用他们的Loihi芯片模仿八百万神经元的计算过程。结合昨天的消息,即密歇根大学宣布了一个可能允许局部AI的Memristor阵列芯片(人工智能),这似乎是一个谈论人工智能硬件的好时机,它开始变得越来越普遍。

密歇根大学的Memristor阵列芯片坐在更大的自定义芯片中。照片由罗伯特科莱乌斯,密歇根工程通信和营销。

但神经网和神经族系统之间的主要差异是什么?今天开发人员提供哪些硬件?

以下是基于非云的AI系统的快速崩溃,以及旨在将AI带入手掌的三个硬件示例。

人工智能边缘计算的推进

虽然人工智能仍处于早期阶段,但我们可以有把握地说,某种形式的人工智能已被定期纳入日常产品中。在一个项目中加入AI的优点常常被忽视,因为AI可以显著改善用户交互,预测行为,因此允许减少响应时间(如汽车),并帮助提高效率(如生产线)。

但人工智能并不是没有问题,越来越多的用户不希望在数据中心发送和存储潜在的敏感数据(比如对话)。由于基于云的人工智能系统还有其他固有问题,如延迟和互联网可用性,人工智能需要以“边缘计算”的形式向边缘移动,即本地设备处理数据并在本地运行人工智能算法。

神经形态vs神经网络

人工智能的实现方式有很多种,但最主要的两种是神经形态编程和神经网络。

一个神经形态AI系统是一个与大脑神经元的工作原理非常相似的回路和软件结合产生的神经元可以触发其他神经元,形成连接,并对刺激做出反应。这是硬件如何被使用的一个例子复制此过程将是微控制器和FPGA.微控制器的行为方式类似于神经元,它们可以处理输入数据并产生输出,而fpga的行为方式类似于神经元之间的连接,它们可以创建、中断和重新路由神经元之间的连接。

神经形态系统的关键特征是,它们的运作原理与大脑中的神经元相同,即信号可以激发神经元,使它们向其他神经元发送信号。

然而,神经网络是由一系列节点连接起来的加权链接,类似于大脑中的神经元。然而,与神经形态系统不同,神经网络没有神经元可以发送脉冲到其他节点.相反,神经网络激活所有接收输入的节点,将它们相加,应用系数和权重,然后产生输出。

AI执行效率

人工智能最大的障碍之一是其中的复杂性和有效执行它们的难度.运行能够识别物体、判断说话者并对环境做出反应的人工智能系统需要大量资源,这也是许多人工智能系统在云数据中心上运行的主要原因之一。

由于嵌入式设备上的人工智能服务有很大的需求(可能有也可能没有互联网连接),对专用人工智能硬件的需求正变得越来越明显。专用的AI硬件可以帮助卸载主处理器上的工作,而主处理器更擅长于接收用户输入和更新图形界面,这将导致更快速的系统响应(即,在被问到一个问题后,无需等待Alexa的回应)。

AI可以归结为两个主要任务;学习和执行。AI系统的学习阶段是呈现数据,然后学习数据是什么以及它应该如何行动。例如,一个旨在识别猫的人工智能系统需要显示许多猫的图片和没有猫的图片。

第二个任务执行是AI系统是馈送数据的位置,然后处理数据以产生适当的响应。在猫的例子中,这将是看着随机对象的AI系统,并确定它们是否是猫。AI的学习阶段是可以在数据中心完成的东西,但是可以从数据中心传送得到的AI算法(例如神经网络),然后将其下载到用于使用的设备。

因此,已经学会识别猫的神经网络可以被转移到一个更小的设备上,在这个设备上执行网络。然而,执行阶段仍然是一个巨大的任务,这也是为什么硬件开发者开始制作AI硬件的原因。

珊瑚-一个神经网络开发板

神经网络硬件开始被集成到现代嵌入式系统中。神经网络硬件的一个最大的例子是谷歌珊瑚系列产品

DEV板是一个单板计算机,包括所有典型的SBC硬件,例如四核ARM53和1GB的RAM - 但它还包括AI协处理器。

谷歌珊瑚开发板的底部。从图片谷歌

协处理器被称为谷歌Edge TPU,这是一个设备,专门从主处理器卸载TensorFlow AI算法,可以加快AI应用程序通过释放AI数据处理的CPU,也通过使用硬件专用于AI任务。谷歌张量处理单元(TPUs)已经存在好几年了,它是一项倡议的一部分,旨在提供云处理的访问,特别是可伸缩的处理,可以为人工智能处理大量数据。大约一年前,TPU 3.0是在2018年谷歌I / O主题演讲的高兴和/或漏洞观众的关键因素在文本到语音的人工智能演示中,Duplex听起来非常人性化

除了开发板,谷歌还发布了USB加速器这是一个安装在USB设备中的TensorFlow协处理器。这可以为所连接的系统提供TensorFlow功能,这不仅有助于减少处理器的使用,还可以消除对硬件剧烈变化的需要(例如,一个树莓派可以使用USB加速器升级)。

脑芯片 - 神经形态计算SOC

虽然神经形态硬件不像神经网络硬件那样常见,但也有一些例子。最近的一个例子是BrainChip它利用峰值神经网络概念,提供人工智能执行.与神经网络不同,只有使用的神经元汲取功率,这意味着尖峰神经系统可以比其神经网络对应物更有效地更有效。

BrainChip的结果NSoC(神经形态芯片系统)它有120万个神经元和100亿个突触,比英特尔Loihi神经形态芯片的效率高100倍。

Brainchip Akida NSOC。从图片BrainChip

BrainChip的产品包括所有常见的硬件,人们可以从任何嵌入式协处理器,如PCIe, USB3.0, SPI, UART和I3S。然而,BrainChip NSoC也有一个转换复合体,其中包括一个像素-尖刺转换器以及一个通用数据-尖刺转换器,用于有效地将输入数据转换为与尖刺神经网络兼容的数据。

高通Snapdragon AI -神经网络SoC

高通是另一家公司这已经认识到了重要性人工智能在嵌入式设计中的应用.因此,他们已经将专用硬件集成到他们的设备中,并发布了能够更有效地使用嵌入式设备的sdk。例如,金鱼草855包括高通Kyro 485 CPU,高通Adreno 640 GPU,高通Hexagon 690 DSP,一起使用更有效地执行AI神经网络。

高通Snapdragon 855 SoC。从图片Qualcomm.

从2017年开始的Snapdragon 845 SoC移动平台已经达到了繁重的数据处理任务,但据报道,855平台特别适用于移动应用程序,并将其吹捧为5G设备的重要升级。

阅读更多


尽管人工智能硬件仍处于起步阶段,但它已经开始商业化,其中大部分围绕着复杂的神经网络,如Coral系列产品和高通Snapdragon系列产品。

然而,如果棘状神经网络(snn)在执行时间和能量消耗方面真的更有效率的话,它们可能是未来的关键,特别是在边缘计算方面。另一方面,它们增加的复杂性可能使它们成为更昂贵的选择。

无论如何,人工智能硬件已经在这里了,甚至微控制器也将包含一些基本的人工智能引擎或外围设备来加速琐碎的人工智能任务,这只是时间问题。