Intel携手Facebook打造首款神经网络处理器
2017-10-19
18:57:22
来源: 数位时代
点击
日前,Intel 宣布要与Facebook合作,推出首款专为机器学习设计的「Nervana」神经网络处理(NNP)系列芯片,是一款专为人工智慧所设计的快速芯片,提供高效率的AI运算,预计在今年年底就能出货。
为更多产业带来高效率的AI 运算能力
「我们很兴奋在向市场分享这款新世代AI硬体时,能跟Facebook 密切合作,共同分享技术见解。」Intel 执行长布莱恩‧科再奇(Brian Krzanich)在《华尔街日报》举办的WSJDLive全球科技会议上,宣布与Facebook 合作推出首款神经网络处理系列芯片,且将在今年年底前出货,并表示Intel 有信心能够超越去年设定的目标,在2020 年时让AI 效能提高100 倍。
科再奇认为透过「Nervana」神经网络处理器,可以为许多产业带来高效率的AI 运算能力,他也列举了四项例子,像是在医疗保健AI 可以让早期诊断提高精准度、增进癌症、帕金森病研究;社群媒体可以为客户提供更个人化的服务;无人车未来能在汽车产业更快实现;AI 也能帮助研究人员掌握风速、水温数据,可以有效预测飓风轨迹。
加快深度学习,Facebook:改变对AI 软硬体建构的策略
去年八月,Intel 以3.5亿美元收购深度学习新创业者Nervana Systems,这次打造的首款基于神经网络处理的AI 芯片,采用标准缓存层次结构,并使用软体来管理芯片上的内存,如此一来便能加快深度学习模型训练时间。
跟PC芯片不同,Nervana 神经网络处理芯片是一款特殊的集成电路,是为训练和执行深度学习演算法所打造,Intel 缩小了Nervana 神经网络芯片的电路尺寸来减少运算时的耗能,将使用可处理大量数据的「Flexpoint」格式达到「大规模双向数据传输」,意思是如果将大量的芯片连接在一起,就可成为一个巨大的虚拟芯片,能达到更大规模的深度学习模型,此架构目标,是要打造出能弹性应付深度学习的处理器,当处理高强度运算要求时,可以更有效率。
科再奇在WSJ D.Live 科技会议上透露,Facebook 在试用过Nervana 神经网络处理芯片后,认为这可以改变公司对AI 软硬体建构的策略。
挑战NVIDIA,Intel 曾推出自我学习型芯片Loihi
NVIDIA 过去一直在AI 硬体发展遥遥领先,目前多数AI 系统都以CPU (中央处理器)运作处理为基础,但在NVIDIA 的推动下,许多深度学习应用都将GPU(图形处理器) 列为主要加速应用的基础,CPU 只用来作为指令运作或系统控制等需求使用。
为了因应产业以GPU为AI系统发展的趋势,今年九月Intel 推出一款具备自我学习能力的处理器芯片「Loihi」,这款芯片采用14纳米制程技术,由13万组类神经元及超过1.3亿组类神经网络系统组成,每组类神经元具备学习引擎,能够彼此沟通,模拟人类的大脑运作,达到自我学习的效果,不用再额外提供学习数据,只需持续运作就能应付各种不同的运算模式。
Loihi 芯片预计在2018 年上半年与部分大学与研究机构合作,来推动未来AI 发展。
责任编辑:星野
- 半导体行业观察
- 摩尔芯闻
最新新闻
热门文章 本日 七天 本月
- 1 113款产品获奖!第十九届“中国芯”优秀产品征集结果发布
- 2 2024“中国芯”出炉!赛昉科技昉·惊鸿-7110荣膺优秀技术创新产品奖
- 3 董明珠等重要嘉宾将出席第十九届“中国芯”大会
- 4 科技向“新”,“质”创未来 默克亮相进博会新材料专区,聚焦前沿新质生产力