如何看待英伟达做CPU?英特尔CEO回应!

2021-04-15 14:00:28 来源: 半导体行业观察

来源:内容由半导体行业观察(ID:icbank)编译自「 tomshardware 」,谢谢。



Nvidia于本周早些时候宣布了其首款用于AI以及HPC服务器的基于Arm的Grace处理器,尽管许多市场观察家都预料到了这一举动,但正式的首次亮相对AMD以及Intel的股价都造成了负面影响。

毫无疑问,英伟达是一个强大的竞争对手,但英特尔认为,它并没有真正威胁到其数据中心业务。

英特尔新任首席执行官帕特·盖辛格(Pat Gelsinger)在接受《财富》采访时说:“我们上周宣布了我们的Ice Lake [服务器处理器],并获得了非常积极的回应 。” “我们的Ice Lake 在AI功能方面进行了非凡的扩展。(英伟达)正在回应我们。不是我们对此做出回应。显然,这种AI增强型CPU的想法是英特尔在其中发挥了巨大的领导作用的领域。”他进一步指出,英特尔还拥有我们的Habana产品线(英特尔在2019年收购了一家专业的AI芯片制造商),毫无疑问地奠定了一条非常进取的道路,而我们与亚马逊的云合作伙伴关系就是一个很好的例证。

“显然,我想说CPU的想法就是Intel的起源。我们现在正在将AI融入其中,我们希望这将是我们进攻的一个领域,而不是未来的防守。”Pat Gelsinger说。

Nvidia的适用于AI和HPC机器的Grace处理器有望在AI和选择HPC工作负载方面比当今的x86处理器快10倍以上,但它要到2023年初发布。像这样的性能期望看起来总是非常强大,但是其中之一必须记住,AMD和Intel的竞争并没有停滞不前。

在早前的介绍中我们说到,英特尔最新的Xeon处理器以DL Boost的名义集成了AI加速技术,该技术目前包括AVX512_VNNI(Cascade Lake和冰湖)和AVX512_BF16(尽显Cooper Lake )等指令集扩展。事实证明,两者都具有相当的竞争力(至少根据Intel进行的测试 ),并且在处理优化算法时,它们可使Intel的CPU性能比Nvidia的GPU 高15倍。

此外,由于英特尔的Xeon CPU的使用如此广泛,因此它们被广泛用于推理工作负载,而ISV为这些处理器优化了其引擎。简而言之,现代英特尔的至强可扩展产品已经具有AI增强功能,其后续产品自然会扩展AI功能。

总的来说,Arm,AMD,Intel,Nvidia和许多其他公司正在努力提高其处理器(CPU,GPU,IPU,VPU等)在AI和/或HPC工作负载中的性能,以应对人工智能的需求。超级计算正在迅速发展。因此,与过去的30年相比,未来几年AI和HPC方向将取得更大进步。

需要注意的是,Nvidia当前显示其Grace CPU位于GPU旁边,而不是单独显示。因此,尽管Grace处理器本身可能具有众多AI增强器,但Nvidia将与针对计算进行了优化的数据中心GPU一起出售它们,从而为AI和HPC工作负载提供了具有令人印象深刻的功能的平台。

同时,英特尔将在2022年推出一个类似的平台。英特尔的第四代至强可扩展“Sapphire Rapids'” 处理器(具有多达56个内核)以及针对各种工作负载的众多增强功能,将伴随着该公司1000亿晶体管的 Ponte Vecchio 计算GPU明年出现在 Aurora超级计算机中。英特尔的GPU似乎具有大约1 FP16 PFLOPS性能或1,000 TFLOPS FP16性能,这是Nvidia A100的312 FP16 TFLOPS的三倍。

由此可见,未来的竞争更加激烈。


★ 点击文末 【阅读原文】 ,可查看本文原文链接!


*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。


今天是《半导体行业观察》为您分享的第2646内容,欢迎关注。

推荐阅读


联电的“烦恼”

存内计算正式进入主流

中国信号链芯片厂商该如何杀出重围


半导体行业观察

半导体第一垂直媒体

实时 专业 原创 深度


识别二维码 ,回复下方关键词,阅读更多

晶圆|集成电路|设备|封测 |射频|存储|美国|台积电

回复 投稿 ,看《如何成为“半导体行业观察”的一员 》

回复 搜索 ,还能轻松找到其他你感兴趣的文章!


点击阅读原文,可查看本文
原文链接!


责任编辑:Sophie

相关文章

半导体行业观察
摩尔芯闻

热门评论