Socionext推出神经网络加速器,加速AI时代

2018-05-23 15:29:17 来源: 互联网
先进视觉影像SoC应用技术领导厂商Socionext Inc.(以下“索喜科技”或“公司”)宣布推出神经网络加速器 (Neural Network Accelerator engine,缩写NNA),用于优化人工智能处理中的边缘计算设备。它具备高速且低功耗的特性,是专用于深度学习中推理处理的加速器。相较以往的处理器,NNA在图像识别等处理时性能提升约100倍。公司预计于2018年第三季度开始,配合FPGA软件开发工具提供产品销售。此外,搭载有NNA的SoC产品开发也正在规划当中。
 
随着消费电子、汽车电子、工业控制等越来越多的应用引入人工智能(AI),人工智能面临着前所未有的快速发展,深度学习、神经网络等技术迎来了发展高潮。神经网络越大,需要的计算量就越大,传统的VPU虽然也能完成人工智能运算,但因为高功耗和高延迟已经略显疲惫。在VPU上加载人工智能计算能力则可以规避这些问题,而且具有更高的可靠性。
 
Socionext目前提供图像处理SoC“SC1810”,这款芯片内置有技术标准化组织Khronos Group制定的API规范-OpenVX,能优化VPU(Vision Processor Unit)运行。此次新推出的NNA加速器提高了VPU性能,能在汽车、数字标牌等多种应用中以高速度和低功耗完成图像识别处理和深度学习等的计算机视觉处理工作。
 
NNA采用量化技术整合了公司的专有构架,减少了深度学习所需的参数和激活值。通过量化技术能以较少的资源执行大量计算任务,大幅减少数据量,并显著降低系统存储器带宽。此外,新开发的片上存储器电路设计提高了深度学习所需的计算资源效率,能在非常小的封装中实现最佳性能。搭载有NNA的VPU结合了最新的技术,能在图像识别处理时比传统VPU快100倍。
 
Socionext预计于2018年第三季度开始提供NNA FPGA软件开发包。改软件开发包可支持TensorFlow学习环境,并提供用于量化技术的专用库和从学习模型到推论处理用的数据转换工具。通过利用NNA优化后的学习环境,用户无需模型压缩或学习调谐(learning tuning)知识也能有效建立起他们自己的模型。今后Socionext还将计划通过支持各种深度学习框架来支持应用广泛的开发环境,让用户能简单建立深度学习的应用程序。
 
与此同时,Socionext也计划将载有NNA的SoC芯片投入市场。目标应用包括车载系统中的影像拍摄,以及基于行人、自行车等高精度物体识别的辅助驾驶以及自动泊车。另一个重要的应用便是显示系统,例如电视、数字标牌,NNA可在超分辨率处理时增强图像识别,提高4K/8K屏幕高清晰度成像。Socionext将不断创新并开发出高效、高性能产品,以适应各种边缘计算环境中广泛的AI应用。
 
              传统VPU                                                         搭载NNA后的VPU

DPA:Data Parallel Accelerator
HWA: Hardware Accelerator
 
客户垂询:
索喜科技(上海)有限公司
Tel: 021-23085888
Email: sns.sales@socionext.com
 
 
关于Socionext Inc.
Socionext Inc.是一家新成立的创新型企业,为全球客户设计、开发和提供片上系统(System-on-chip)产品。公司专注于成像、网络和电脑计算等其他能够推动当今尖端应用发展的技术。Socionext集世界一流的专业知识、经验和丰富的IP产品组合,致力于提供高效益的解决方案与更佳的客户体验。Socionext 成立于2015年,总部设在日本横滨,在日本、亚洲、美国和欧洲设有办事处,领导其产品开发和销售。
更多详情,请登录Socionext官方网站:http://www.socionext.com。
 
Khronos,OpenVX为Khronos Group Inc.商标。
TensorFlow,the TensorFlow logo以及其他相关标示均为Google Inc.商标。
本新闻稿中提及的所有公司或产品名称均为其各自所有者的商标或注册商标。以上发布的信息为截止发稿时的信息,日后若发生变更,恕不另行通知,敬请谅解。
 
责任编辑:sophie
半导体行业观察
摩尔芯闻

热门评论