来源:本文由半导体行业观察编译自venturebeat,谢谢!
日前,LightOn在Arxiv.org 上发表了一篇技术论文,作为一家开发用于AI应用的光学计算硬件的初创公司,LightOn的科学家在论文里详细介绍了他们所谓的能够加速AI模型训练的光学协处理器之一。在对流行的MNIST手写数字数据集进行的实验中,他们的协处理器(光学处理单元)表面上帮助训练了一个模型,这个模型以95.8%的精度识别数字,而在图形卡上进行训练的模型则达到了97.6%的精度。
光子集成电路是LightOn芯片的基础,与电子同类产品相比,它具有许多优势。例如它们只需要有限的能源,因为光产生的热量少于电,并且它们不易受到环境温度,电磁场和其他噪声变化的影响。与硅等效产品相比,光子设计中的延迟降低到万分之一,而功耗水平也降低了“几个数量级”,而且,某些模型的工作负载运行速度比最新的电子芯片快100倍。
根据该论文,LightOn研究人员使用一种内部光学芯片,该芯片经过修改以包括离轴全息照相技术(off-axis holography :a small angle between the reference and the object beams that prevents overlapping),并与一种称为直接反馈对准(DFA:direct feedback alignment)的技术相结合。在机器学习中,DFA将模型错误率的随机预测用作训练信号,这使构成模型的每一层都可以独立于其他层进行更新。
典型的AI模型由连接到一个或多个密集层中的“神经元”(数学函数)组成。沿着神经元传输的信号会调整连接的突触强度(权重),并以此方式从数据中提取特征并学习进行预测。通常,反向传播(backward propagation of errors)用于发送信号并进行各种调整,但是反向传播会阻止层的异步处理。图层的调整取决于模型中其他地方的数据,从而导致效率低下。
为了追求更快的基于光学的DFA方法,LightOn研究人员的芯片将一种称为矢量的数字表示编码到光束上,该分量具有用于空间调制光的组件。光束通过扩散器传播,这就让相机可以检测到推断图案(a speckle)以及光束的强度。这使芯片可以提供非常大的随机模型误差预测-理论上超过一千亿个参数,在此情况下,它们指的是模型内部的配置变量,这些变量定义了问题模型的技能。
在实验过程中,论文合著者训练了一个模型,该模型包含10个时期的1,024个神经元(1,024 neurons for 10 epochs),这意味着MNIST中的每个样本都有机会将参数更新10次。LightOn的协处理器以1.5 kHz的频率运行,每秒执行1,500次随机投影,消耗约30瓦的功耗,比一般的图形卡的功率效率高出一个数量级。
研究人员推测,切换到不同的全息方案( holography scheme)将使执行涉及超过一万亿个参数的计算成为可能,但他们将其留给未来的工作。他们写道:“随着神经网络变得越来越大,越来越复杂,数据量越来越大,训练成本也在飞涨。” “我们希望通过优化当前可用的组件以及开发未来的组件来改善[在我们的芯片上]的性能。对DFA的更好理解也将有助于扩大该加速器的应用范围。”
值得注意的是,LightOn的硬件旨在插入标准服务器或工作站中,因此无法不受光学处理的限制。快速的光子电路需要快速的存储,然后是将每个组件(包括激光器,调制器和光学组合器)封装在一个微小的芯片晶圆上的问题。此外,关于在光学领域可以执行哪种类型的非线性运算(使模型能够进行预测的基本模型构建块)仍存在疑问。
这也许就是为什么包括英特尔和LightOn 在内的公司都在追求混合方法,该方法将硅和光学电路结合在同一芯片上,以使模型的一部分以光学方式运行,而模型的一部分以电子方式运行。它们并不孤单。
到目前为止,初创公司Lightelligence已在其加速器上演示了MNIST基准机器学习模型,该模型使用计算机视觉识别手写数字。另外三个竞争激烈的光学芯片市场的初创公司Lightmatter,Optalysis和Fathom Computing也已经为自己的芯片筹集了数千万的风险投资。
欲看完整版论文,请点击阅读原文查看。
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第2331期内容,欢迎关注。
『
半导体第一垂直媒体
』
实时 专业 原创 深度
识别二维码
,回复下方关键词,阅读更多
两会|台积电|RISC-V|汽车芯片|AI|EDA|中美|晶圆 | 射频
回复
投稿
,看《如何成为“半导体行业观察”的一员 》
回复
搜索
,还能轻松找到其他你感兴趣的文章!