;
点击蓝字,关注我们
深度神经网络正在成为推动最先进机器学习应用的核心,但随着这些模型变得越来越庞大和复杂,它们也逐渐超越了传统电子计算硬件的能力。
光子设备通过利用光来进行机器学习计算,提供了一个更快、更节能的替代方案。不过,有些神经网络计算任务光子设备仍然无法处理,这通常需要借助外部电子设备,影响了整体速度和效率。
不过,基于十多年研究,麻省理工学院(MIT)及其他研究机构的科学家们近日报告了一个重大突破——他们开发了一款新的光子芯片,解决了这些问题。研究团队表示,他们已经成功展示了一款完全集成的光子处理器,能够在芯片上通过光学完成深度神经网络的所有关键计算任务。
根据研究人员的说法,这款光子处理器能够在不到半纳秒的时间内完成机器学习分类任务的核心计算,同时准确率超过92%,这一表现与传统硬件相当。
他们还指出,这款芯片由多个模块组成,这些模块相互连接,形成了一个光学神经网络,并采用了商业化的生产工艺,这使得该技术有望大规模扩展并与电子设备进行更好的集成。
长远来看,这种光子处理器可能为像激光雷达、天文学、粒子物理学等计算要求高的应用领域带来更快、更节能的深度学习解决方案。
“很多时候,模型的表现不光是唯一需要考虑的因素,计算速度也同样至关重要,”量子光子学与人工智能小组的访问科学家、NTT研究公司博士后Saumil Bandyopadhyay说道,“现在,我们已经有了一个能够在纳秒级别运行神经网络的完整系统,接下来可以更深入地思考如何应用和优化算法。”
运用光学学习的潜力
深度神经网络是由多个相互连接的节点(或神经元)组成,这些节点处理输入数据并输出结果。在深度神经网络的计算中,矩阵乘法是一个核心操作,它通过线性代数变换数据,推动数据在不同层之间传递。
除了这些线性计算,深度神经网络还需要执行一些非线性操作,帮助模型从复杂的数据中学习更多的模式,非线性操作赋予了神经网络强大的学习能力。
早在2017年,研究人员就展示了一个光子芯片上的光学神经网络,能够利用光进行矩阵乘法。但当时,该设备无法处理非线性操作,光信号需要转换为电信号,并通过数字处理器进行处理。
“光学中的非线性操作非常具有挑战性,因为光子之间很难相互作用,这使得触发光学非线性效应的能耗非常大,从而限制了系统的可扩展性,”Bandyopadhyay解释道。
这次,科学家们通过设计一种名为“非线性光学功能单元”(NOFUs)的新模块,解决了这一难题。这些模块结合了电子学和光学,可以在芯片上执行非线性操作。研究团队利用三层设备构建了一个光学深度神经网络,这些模块执行了线性和非线性操作。
完全集成的光学神经网络
在他们的系统中,首先将深度神经网络的参数编码为光信号,然后通过可编程分束器阵列执行矩阵乘法。接着,信号传输到可编程的NOFUs模块,这些设备通过将少量光信号转化为电流,执行非线性操作。这个过程能耗极低,不需要外部放大器。
“整个计算过程几乎完全保持在光学领域,直到最后读取结果时才转换为电信号,这样就可以实现超低延迟,”Bandyopadhyay说道。
这一低延迟使得研究团队能够在芯片上高效地训练深度神经网络,这一过程通常被称为“原位训练”,而传统数字硬件在这一过程中消耗的能量要大得多。
“这种技术特别适用于那些需要实时处理光学信号的应用,比如导航和通信系统,同时也非常适合实时学习的场景,”Bandyopadhyay补充道。天博体育官网
根据报告,这款光子处理器在训练测试中的准确率超过96%,推理过程中的准确率超过92%,与传统硬件相当。而且芯片能够在不到半纳秒的时间内完成关键计算。
“这项研究表明,计算——从输入到输出的映射——可以通过新的线性和非线性物理架构来实现,从而大幅提升计算效率和扩展性,”Englund教授说。
研究人员还指出,整个电路使用了与CMOS计算机芯片相同的制造工艺,这意味着可以通过现有的成熟技术大规模生产该芯片,而且制造过程中几乎没有误差。
Bandyopadhyay表示,未来的研究将重点扩展这款处理器的规模,并将其与电子设备(如相机或通信系统)集成。此外,研究团队还希望能够探索新的算法,进一步发挥光学硬件在训练速度和能效上的优势。
本文章版权归属原作者和资料提供方所有。如文章内涉及版权和其他问题,请第一时间联系我们。