来源:本文由半导体行业观察编译自ZDnet,谢谢!
AI芯片领域正在蓬勃发展,除了传统的产品之外,还有来自众多初创公司的创新。您可能以前从未听说过 本文即将介绍的NeuReality,但今天以后,你将会听到更多有关它的信息。
NeuReality是一家于2019年在以色列成立的初创公司。今天,它宣布推出NR1-P,它是一个新颖的以AI为中心的推理平台。这是对以前未知的大胆主张,并且到达那里的时间很短-即使这是随后实施的更多实现中的第一个。
ZDNet 最近与NeuReality首席执行官兼联合创始人Moshe Tanach进行了联系,以了解更多信息。
Tanach在半导体和系统领域拥有20多年的经验,致力于从计算和无线到数据中心网络和存储的解决方案。
他和他的联合创始人,运营副总裁Tzvika Shmueli和副总裁VLSI Yossi Kasus,走了很长一段路,并且在他们之间的关键职位上拥有令人印象深刻的以往经验。
NeuReality的创始人在Habana Labs,英特尔,Marvell和Mellanox等公司拥有丰富的工作经验,赛灵思也是NeuReality的重要合作伙伴,Tanach解释说。此时,现在NR1-P就是在Xilinx FPGA上做原型实现。他们最终的目标是将NR1-P实现为片上系统(SoC)。
NeuReality已经开始向客户和合作伙伴演示NR1-P,尽管没有透露名称。该公司声称原型平台可以验证其技术,并允许客户将其集成到精心设计的数据中心和其他设施中。
Tanach提炼了NeuReality的理念,他说系统和半导体应该从外部到内部进行设计:“您需要了解系统。如果您可以像高通所做的那样构建系统,那么他们正在构建电话和基站。为了制造出最好的手机芯片”。
从一开始,NeuReality就选择只专注于推理工作负载。正如Tanach所指出的那样,处理如何训练AI模型引起了很多关注,并产生了非常昂贵的计算机系统,它们在训练模型上具有出色的效果。
但是,当您推动将AI用于现实生活中的应用程序时,您需要关心模型的部署和使用方式-因此进行推理。而且,当您尝试使用昂贵的系统时,每次AI操作的成本仍然很高,很难一起解决这两个问题。
这一理念也是他们将英特尔AI产品部门前总经理Naveen Rao博士带到NeuReality董事会的原因之一。Rao是Nervana的创始人, 该公司于2016年被英特尔收购。在英特尔工作时,Rao拥有两条产品线,一条用于培训,另一条用于推理。
像Tanach所说的,Rao欣赏NeuReality的“新鲜观点”。但是,这到底意味着什么呢?NR1-P在很大程度上依赖于FPGA解决方案,因此与Xilinx的合作非常重要。Tanach指出,Xilinx不仅是可编程逻辑和FPGA:
“当您看看他们的高级FPGA如何构建时,它们是一个片上系统。它们在最新的Versal ACAP技术中内置了ARM处理器。它们还集成了您可以编程的VLAW引擎阵列。我们可以构建一个非常强大的16卡服务器机箱”。
NeuReality在Xilinx FPGA中实现了NR1-P,因此他们无需制造任何东西-只需构建机箱即可。正如Tanach所指出的,他们与Xilinx一起工作,并提出了一个自主的推理引擎,该推理引擎在FPGA内部实现。SoC正在开发中,将于2022年初推出。
这意味着NR1-P并不针对嵌入式芯片,因为为此而使用FPGA是不切实际的。即使有SoC,NeuReality仍将继续瞄准近端解决方案:
“边缘设备需要更加优化的解决方案,这些解决方案是专门针对设备的需求而设计的。您需要以微瓦,毫瓦或不到50毫瓦为单位进行处理。但是,计算存在不确定性。当前的趋势是推动越来越多的应用计算到云中,但是我们开始看到钟摆又回来了。
看看 Microsoft与AT&T达成的交易 ,即在美国的AT&T设施中建立许多数据中心,以使更多的计算能力更接近边缘。由于成本和功能的原因,许多物联网设备将无法嵌入AI功能,因此它们将需要一台计算服务器来为它们提供更接近其位置的服务。一直到云再返回都会带来高延迟”。
Tanach说,NeuReality的“秘密调味料”在概念上很简单:
其他深度学习加速器在减轻应用程序的神经网络处理负担方面可能做得很好,但它们是PCI设备。
它们必须安装在整个服务器上,而且成本很高。
CPU是系统的中心,当它卸载负载时,它将运行设备的驱动程序。NeuReality并非如此。NR1-P是连接到网络的自治设备。它具有所有数据路径功能,因此不需要在软件中运行,从而消除了这一瓶颈,也消除了对其他设备的需求。Tanach将此称为面向对象的硬件:
“这里的主要对象是AI计算引擎。很长时间以来,我们一直在使用面向对象的软件,它改变了我们编写事物的方式。我们用所需的功能包装了主要对象。现在该开发硬件了这样做也是一样。如果您想投资AI计算引擎,请使其成为首要任务。”
Tanach谈到的另一个主题是所使用的通信协议。他指出,诸如Nvidia之类的推理解决方案使用REST API,这使得网络连接非常昂贵。NeuReality还有其他实现方式,他们将在以后公开。
最后但并非最不重要的一点是,云数据中心的弹性和利用率也很重要。Tanach说,现有的深度学习加速器不在这个方程式之内。Kubernetes连接,与协调器的通信,所有这些都在托管这些深度学习加速器的CPU上完成。NeuReality将这些功能集成到设备中。
Tanach补充说,这一切都意味着AI推理操作的成本非常低,无论是在资本支出还是在运营支出方面。目前,FPGA可以用于数据中心以及像5G基站这样的功耗较小的地方。SoC将有两种类型,一种用于数据中心,另一种用于降低成本和电源规格,以使边缘节点更接近节点。
NeuReality声称,与深度学习加速器供应商提供的GPU和ASIC相比,每美元的性能提高了15倍。当被问及这些主张的参考时,Tanach提到使用MLPerf作为内部基准测试的基础。Tanach补充说,NeuReality将很快分享对MLPerf的建议更新。
除了交付其SoC,NeuReality还致力于交付其软件堆栈。目标是能够与人们正在使用的任何机器学习框架一起使用,无论是PyTorch还是TensorFlow或其他任何东西。Tanach指出,ONNX使这一过程变得更加容易,并且NeuReality正在投资软件。
他接着补充说,人工智能计算卸载的未来是完全卸载pipeline。可以肯定的是,NeuReality的软件堆栈将支持将启用该功能的计算图表示。在客户方面,NeuReality的目标是三个细分市场。
Hyperscalers和下一波云服务提供商,为军事,政府和金融行业等客户(最后但并非最不重要)的OEM建立数据中心的解决方案提供商。
今天的报道是在2021年2月,NeuReality从隐身中脱颖而出之后 的再次亮相,那时他们获得了800万美元的种子投资。诚然,对于NeuReality来说还处于初期。但是,公司的背景和进展让他们值得关注。
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第2667内容,欢迎关注。
『
半导体第一垂直媒体
』
实时 专业 原创 深度
识别二维码
,回复下方关键词,阅读更多
晶圆|集成电路|设备|封测
|射频|存储|美国|台积电
回复
投稿
,看《如何成为“半导体行业观察”的一员 》
回复
搜索
,还能轻松找到其他你感兴趣的文章!