为什么说要重视神经网络加速器

2018-06-14 14:00:06 来源: 官方微信


自从以深度学习为代表的神经网络算法的精度大大提升以后,人工智能开始终于又再次火了起来,且有席卷全球之势。根据BBC预测,到2020年,人工智能总体市场将会高达1190亿元的规模,年平均复合增长率也将达到19.7%。庞大的市场潜力就吸引了众多的芯片、算法和应用厂商投身其中。


和过去的大多数应用不一样,人工智能在模型训练与推理中需要大量的计算。但受限于其算法和计算本身的特性,过往一直被广泛使用的传统计算芯片却无法满足这些需求,这就要求芯片厂商去为神经网络算法打造专用的芯片,尤其是推理端的芯片,也就是俗称的神经网络加速器。由于这个市场大家几乎都处于同一起跑线,所以很多新兴的和传统的芯片厂商在上面角逐,这就给开发者的芯片选择带来了困扰。


为此,我们从概念入手,为大家提供神经网络加速器的(NNA)基本面了解,还有一些厂商的应用范例,希望对大家有所启发。


神经网络加速器是趋势


在谈神经网络加速器之前,我们先了解一下什么是神经网络。


据维基百科,在机器学习和认知科学领域,人工神经网络是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。神经网络由大量的人工神经元联结进行计算。大多数情况下人工神经网络能在外界信息的基础上改变内部结构,是一种自适应系统。现代神经网络是一种非线性统计性数据建模工具。


典型的神经网络具有以下三个部分:


1)结构(Architecture)


结构指定了网络中的变量和它们的拓扑关系。例如,神经网络中的变量可以是神经元连接的权重(weights)和神经元的激励值(activities of the neurons)。


2)激励函数(Activity Rule)


大部分神经网络模型具有一个短时间尺度的动力学规则,来定义神经元如何根据其他神经元的活动来改变自己的激励值。一般激励函数依赖于网络中的权重(即该网络的参数)。


3)学习规则(Learning Rule)


学习规则指定了网络中的权重如何随着时间推进而调整。这一般被看做是一种长时间尺度的动力学规则。一般情况下,学习规则依赖于神经元的激励值。它也可能依赖于监督者提供的目标值和当前权重的值。例如,用于手写识别的一个神经网络,有一组输入神经元。输入神经元会被输入图像的数据所激发。在激励值被加权并通过一个函数(由网络的设计者确定)后,这些神经元的激励值被传递到其他神经元。这个过程不断重复,直到输出神经元被激发。最后,输出神经元的激励值决定了识别出来的是哪个字母。


人工神经网络通常是通过一个基于数学统计学类型的学习方法(Learning Method)得以优化,所以人工神经网络也是数学统计学方法的一种实际应用,通过统计学的标准数学方法我们能够得到大量的可以用函数来表达的局部结构空间,另一方面在人工智能学的人工感知领域,我们通过数学统计学的应用可以来做人工感知方面的决定问题(也就是说通过统计学的方法,人工神经网络能够类似人一样具有简单的决定能力和简单的判断能力),这种方法比起正式的逻辑学推理演算更具有优势。


拥有了这些神经网络之后,不但可以在云端架设服务器提供人工智能服务,且可以应用到智能手机、智能安防甚至智能汽车中实现图像识别、物体跟踪和语音识别等任务。但这些应用由于其应用场景的不同,还有算法特性的限制,这就要求他们提供低功耗、高效的,专门设计用来运行这些神经网络算法的芯片,我们就把他们称之为“神经网络加速器”。


再者,从目前看来,由于数据收集需要大量运算,因此各国的人工智算法仍然以云端发展为主。但考虑到信息安全、功耗以及对产品设计带来的挑战问题,以云为中心的架构方式并非在任何情况下都是最理想的解决方案,这就推动了对嵌入式人工智能的关注。那就对相关的芯片提出了更高的需求。


综上所述,推进神经网络加速器的落地势在必行。现在也有很多厂商正在针对不同的应用方向进行相关的研发工作,来自日本的索喜也是当中的一员。据了解,这家从专注于成像、网络和电脑计算技术三大板块的创新型企业正在推动AI在汽车方面的落地。


Socionext推NNA加速AI在边缘落地


Socionext(索喜科技)成立于2015年,由富士通株式会社与松下电器产业株式会社对两家公司的系统LSI业务进行合并,并接受日本政策投资银行的注资组成。公司为全球客户设计、开发和提供片上系统产品。公司日前宣布开发出一种新的神经网络加速器,用于优化边缘计算中的人工智能处理。


据介绍,Socionext目前提供的图像显示控制器“SC1810”内搭载有视觉处理器(VPU, Vision Processor Unit),与标准化组织Khronos Group开发的电脑视觉API“OpenVX”兼容。NNA的设计加入将扩展下一代图像显示控制器中VPU的性能。



Socionext方面表示,这个NNA采用量子化技术整合了公司的专有构架,减少了深度学习所需的参数和激活值。通过量子化技术能以较少的资源执行大量计算任务,大幅减少数据量,并显著降低系统存储器带宽。此外,新开发的片上存储器电路设计提高了深度学习所需的计算资源效率,能在非常小的封装中实现最佳性能。搭载有NNA的VPU结合了最新的技术,能在图像识别处理时比传统VPU快100倍。


据透露,新推出的NNA加速器提高了SC1810的VPU性能,能在汽车、数字标牌等多种应用中以高速度和低功耗完成图像识别处理和深度学习等的计算机视觉处理工作,能广泛应用在包括车载系统中的影像拍摄,以及基于行人、自行车等高精度物体识别的辅助驾驶以及自动泊车等方面。


另外,在电视和数字标牌等显示系统中,NNA可在超分辨率处理时增强图像识别,提高4K/8K屏幕高清晰度成像。这又是Socionext这个方案的另一应用方向。


Socionext预计于2018年第三季度开始提供NNA FPGA软件开发包。该软件开发包可支持TensorFlow学习环境,并提供专用的量子化技术库和从学习模型到推论处理用的数据转换工具。通过利用NNA优化后的学习环境,用户无需模型压缩或学习调谐(learning tuning)知识也能有效建立起他们自己的模型。今后Socionext还将计划通过支持各种深度学习框架来支持应用广泛的开发环境,让用户能简单建立深度学习的应用程序。


“我们将继续不断创新并开发出高效、高性能产品,以适应各种边缘计算环境中广泛的AI应用。”,Socionext中国区总裁铃木寿哉先生强调。


今天是《半导体行业观察》为您分享的第1617期内容,欢迎关注。


推荐阅读

模拟电路设计面对的新挑战

AMD突然发布7nm芯片背后的野心

FPGA的新选择


关注微信公众号 半导体行业观察(ID:icbank) ,后台回复以下关键词获取更多相关内容


华虹 | 摩尔定律 | 材料 | 面板 | 晶体管 | 开源 | 韦尔股份 | 封装 | 展会



回复 投稿,看《如何成为“半导体行业观察”的一员 》

回复 搜索,还能轻松找到其他你感兴趣的文章!



点击阅读原文了解摩尔精英

责任编辑:官方微信
半导体行业观察
摩尔芯闻

热门评论