可实现高效“深度学习”的新光学芯片
美国麻省理工学院(MIT)科学家在12日出版的《自然·光学》杂志上发表论文称,他们开发出一种全新的光学神经网络系统,能执行高度复杂的运算,从而大大提高“深度学习”系统的运算速度和效率。
a,一般人造神经网络架构由输入层,多个隐层和输出层组成。 b,将一般神经网络分解为单个层。 c,构成人造神经网络每一层的光学干涉和非线性单位。 d,提出了一个全光学,完全集成的神经网络。
“深度学习”系统通过人工神经网络模拟人脑的学习能力,现已成为计算机领域的研究热门。但由于在模拟神经网络任务中,需要执行大量重复性“矩阵乘法”类高度复杂的运算,对于依靠电力运行的传统CPU(中央处理器)或GPU(图形处理器)芯片来说,这类运算太过密集,完成起来非常“吃力”。
a,两层ONN实验的示意图。b,实验中使用的实验反馈和控制回路。 c,实验证明OIU的光学显微照片说明,其完全光学实现了矩阵乘法(以红色突出显示)和衰减(以蓝色突出显示)。 d,MZI中单个移相器的示意图和用于调谐内部移相器的传输曲线。
通过几年努力,MIT教授马林·索尔贾希克和同事开发出光学神经网络系统的重要部件——全新可编程纳米光学处理器,这些光学处理器能在几乎零能耗的情况下执行人工智能中的复杂运算。索尔贾希克解释道,普通眼镜片就能通过光波执行“傅里叶变换”这样的复杂运算,可编程纳米光学处理器采用了同样的原理,其包含多个激光束组成的波导矩阵,这些光波能相互作用,形成干涉模式,从而执行特定的目标运算。
a,b,分别用于ONN和64位电子计算机的相关矩阵,用于实现用于元音识别的两层神经网络。 c,具有相位编码(σΦ)和光检测误差(σD)的元音识别问题的正确识别率(百分比)。d,测试数据集的二维投影(x轴上的对数面积比系数1和y轴上的2),其显示了元音C和D之间的重叠。
研究小组通过测试证明,与CPU等电子芯片相比,这种光学芯片执行人工智能算法速度更快,且消耗能量不到传统芯片能耗的千分之一。他们还用可编程纳米光学处理器构建了一个神经网络初级系统,该系统能识别出4个元音字母的发音,准确率达到77%。他们的最终目标是,将可编程纳米光学处理器交叉铺成多层结构,构建光学网络神经系统,模拟人脑中神经元执行复杂的“深度学习”运算。
索尔贾希克表示,新光学处理器还能用于数据传输中的信号处理,更快速实现光学信号与数字信号间的转换。未来,在大数据中心、安全系统、自动驾驶或无人机等所有低能耗应用中,基于新光学处理器的复杂光学神经网络将占据重要席位。