传高通骁龙855芯片也将内置NPU
近年来,“人工智能”逐渐从评判一款SoC性能的边缘指标走向中心,影响着SoC厂商的下一款芯片设计,比如高通在2019年的旗舰SoC——骁龙855。
根据爆料人 Roland Quandt 在国外论坛 WinFuture 上的说法,骁龙855将内置一颗独立的神经处理单元(NPU),以提升芯片在AI运算方面的性能,降低相应的计算功耗。
实际上,高通对于骁龙SoC的AI运算已经有了成熟的解决方案,推出了骁龙神经处理引擎AIE,通过软件框架来协调SoC中已有的CPU、GPU、DSP硬件进行AI运算,在图像、语音识别等领域有着可靠的应用。
但WinFuture依然指出,采用独立NPU在处理AI数据时应该有助于减轻CPU的负担,当前由CPU或DSP完成的图像信息或语音查询的分析将转移到NPU,可以获得更好的性能。
同时,相比于骁龙AIE过于繁复的语言描述,独立NPU更为简单直接,显然也有利于骁龙SoC在AI性能上的宣传。
据悉,骁龙855是一颗12.4 x 12.4mm的芯片,采用台积的7nm工艺打造,内置骁龙X24 LTE调制解调器,支持Cat.20 LTE,以达到2Gbps的下行速度,可以通过外挂骁龙X50 5G基带实现5G功能。
WinFuture指出,新款SoC的最终名称可能尚未确定,从高通内部流出的消息来看,代号为“SM8150”,按照此前的规则,其中“SM”代表Snapdragon Mobile,而“8150”就是全新SoC的型号,可能传言中的骁龙855会改名为骁龙8150。
高通AIE深度解读
在今年年初,高通宣布推出人工智能引擎(AI Engine),让人工智能在终端侧(如智能手机)上的应用更快速、高效。该AI Engine包括软硬件两部分,在高通骁龙核心硬件架构(CPU、GPU、VPS向量处理器)上搭载了神经处理引擎(Neural Processing Engine, NPE)、Android NN API、Hexagon神经网络库等软件。
大多数移动机器学习(ML)任务(如图像或语音识别)目前都在云中执行,智能手机将数据发送到云端,然后再将计算结果返回到手机。但是目前,在终端设备上执行的机器学习任务越来越繁重。为了给开发人员提供更好的基于机器学习的增强功能,高通推出人工智能引擎AI Engine来封装其当前的ML产品。终端侧人工智能的关键优势包括即时响应、隐私保护增强、可靠性提升,此外,还能确保在没有网络链接的情况下用户的AI体验能到得到保障。
高通骁龙核心硬件架构——Hexagon 向量处理器、Adreno GPU和Kryo CPU都具备支持终端侧快速、高效地运行AI应用的能力。这一异构计算方案让开发者和OEM厂商都能智能手机或端智能硬件设备上优化用户AI体验。
高通首次推出AI引擎,打包所有软硬件算力
在软件方面,高通AI Engine提供三个组件:
1、骁龙神经处理引擎(Neural Processing Engine, NPE)软件框架让开发者可为实现所需的用户体验,选择最适宜的骁龙内核,包括Hexagon向量处理器、Adreno GPU和Kryo CPU,并加速其终端侧人工智能用户体验的实现。骁龙神经处理引擎支持Tensorflow,Caffe和Caffe2框架,以及ONNX (Open Neural Network Exchange)交换格式,在多个骁龙平台和操作系统上,为开发者提供更大灵活性和更多选择。
2、随Google Android Oreo发布的Android NN API,让开发者能通过Android操作系统直接访问骁龙平台。骁龙845将率先支持Android NN。
3、Hexagon Neutral Network(NN)库让开发者可以直接将人工智能算法在Hexagon向量处理器上运行。为基础性的机器学习模块提供了优化的部署,并加速诸如卷积、池化和激活等人工智能运行。
- 半导体行业观察
- 摩尔芯闻
最新新闻
热门文章 本日 七天 本月
- 1 英伟达,又挖了一道护城河
- 2 汽车芯片需求激增,南芯科技加速推进“第二增长曲线”
- 3 江波龙全球最小尺寸eMMC,为AI穿戴设备“减负”
- 4 奕行智能(EVAS Intelligence)完成数亿元A轮融资,加速推出RISC-V计算芯片产品,共同助力新时代到来