Nvidia擅于训练,Xilinx和Intel长于推断,谁会成为AI芯片大赢家?
2017-09-19
10:45:10
来源: MoneyDJ
点击
《纽约时报》9 月16 日报导,科技产业板块正出现剧烈变化。辉达(NVIDIA Corp.)执行长黄仁勋日前在受访时表示,现在有点像是网际网络刚开始的时候。由黄学东(Xuedong Huang)所领导的微软(Microsoft)语音识别研究团队利用辉达所开发的芯片,在一年内就达到识别准确度超越普通人的境界。黄学东说,微软如果没有这项武器(基础设施),至少得花上5 年的时间才能获得相同的成果。
英特尔(Intel Corp.)在两年前斥资167 亿美元购并现场可程式逻辑门阵列(FPGA)厂商Altera。报导指出,微软利用Altera 的FPGA 芯片协助改善Bing 搜寻服务的机器学习演算法。丰田研究所(Toyota Research Institute,TRI)执行长Gill Pratt 指出,能够将运算工作分散至微小低耗能芯片的机器,就能以接近人类大脑的方式进行运作,因为能源效率是大脑正常运作的关键。
英特尔(Intel Corp.)在两年前斥资167 亿美元购并现场可程式逻辑门阵列(FPGA)厂商Altera。报导指出,微软利用Altera 的FPGA 芯片协助改善Bing 搜寻服务的机器学习演算法。丰田研究所(Toyota Research Institute,TRI)执行长Gill Pratt 指出,能够将运算工作分散至微小低耗能芯片的机器,就能以接近人类大脑的方式进行运作,因为能源效率是大脑正常运作的关键。
机器智能开发主要分成两个阶段:
1. 透过现代机器学习技术,利用大量样本数据对演算法进行训练;
训练环境通常需要通过大量的数据输入,或采取增强学习等非监督学习方法,训练出一个复杂的深度神经网络模型。训练过程由于涉及海量的训练数据(大数据)和复杂的深度神经网络结构,需要的计算规模非常庞大,通常需要GPU集群训练几天甚至数周的时间,在训练环节GPU目前暂时扮演着难以轻易替代的角色。
2. 在需要解读现实世界数据的终端应用中执行演算法。第二阶段也被称为「推理」,在装置内执行推理有许多好处,包括降低延迟、功耗和避开隐私问题。
推断(inference)环节指利用训练好的模型,使用新的数据去“推断”出各种结论,如视频监控设备通过后台的深度神经网络模型,判断一张抓拍到的人脸是否属于黑名单。虽然推断环节的计算量相比训练环节少,但仍然涉及大量的矩阵运算。在推断环节,除了使用CPU或GPU进行运算外,FPGA以及ASIC均能发挥重大作用。
Movidius(英特尔旗下公司)总经理Remi El-Ouazzane 曾表示,Movidius 神经计算棒内建的「Movidius Myriad 2 觉处理单元(VPU)」提供强大且有效率的表现,可以在1 瓦的功率下提供超过每秒1,000 亿次浮点运算性能、以便直接在装置上执行即时深度神经网络。他说,这使得许多AI 应用都能在离线状态下部署。
英特尔2016 年9 月宣布收购行动图像处理技术开发商Movidius Technology。Movidius 与英特尔旗下现有资产的结合将使得全球半导体龙头得以在电脑视觉、深度学习解决方案(从装置到云端)领域处于领先地位。
英特尔并于2016 年8 月宣布购并一家名为Nervana Systems 的人工智能新创企业。同年5 月,英特尔宣布收购电脑视觉(CV)技术公司Itseez Inc.。Itseez 可协助客户创造出自动驾驶、数字安全与监控等创新深度学习CV 应用产品。
英国《电讯报》「Telegraph Money」专栏8 月13 日列举7 档自驾车、AI/机器学习、机器视觉、大数据概念主要受惠股,当中提到赛灵思(Xilinx)所生产的芯片就是负责机器学习过程中的推论部分。
赛灵思表示,伙伴厂商利用FPGA 芯片进行基因体定序与优化语音识别所需的深度学习,察觉FPGA 的耗能低于GPU 且处理速度较快。相较于GPU 只能处理运算,FPGA 能以更快速的速度一次处理所有与AI 相关的资讯。
责任编辑:星野
- 半导体行业观察
- 摩尔芯闻
最新新闻
热门文章 本日 七天 本月
- 1 在这个平台上,硬件创新跑出了“中国速度”
- 2 国产EDA突破,关键一步
- 3 机器人“核芯”企业,一微半导体聚焦“AI+机器人”横琴启程
- 4 MediaTek 发布天玑 8400 移动芯片,开启高阶智能手机全大核计算时代