人工智能的发展日新月异,从语言生成模型到图像识别技术,深度神经网络(DNN)成为推动这些技术进步的核心。然而,庞大的计算需求也带来了巨大的能源消耗和硬件挑战。传统基于电子的处理器在性能提升上已逐渐遇到瓶颈,能耗和散热限制成为制约发展的关键因素。近期,由南加州大学(USC)与麻省理工学院(MIT)联合开展的一项突破性研究,提出了一种创新的激光阵列光学神经网络处理器方案,极大地提升了计算效率和能源利用率,为人工智能硬件结构带来革命性变革。该研究成果发表在权威期刊《Nature Photonics》上,显示该光学处理器在性能和能耗方面分别较现有技术提升了约100倍,甚至具备更大潜力。研究负责人、南加州大学电气与计算机工程系助理教授陈在军解释道,采用光子而非电子作为计算媒介,能够极大地突破传统芯片的电子瓶颈,实现算力的跨越式增长及能源的大幅节约。
光学神经网络的核心优势在于光信号的高速传输和低损耗特性,信息流在光路中能够保持极高的带宽和极低的延迟,适合深度神经网络中巨大且复杂的数据并行计算需求。然而,早期光学神经网络存在能耗高、电光转换效率低、器件尺寸大导致计算密度受限及波导串扰等技术难点,制约了其实用化进程。在此次研究中,科学家们利用了垂直腔面发射激光器(VCSEL)阵列技术,成功在一平方厘米的小型光芯片上集成超过400个微型激光器,单个激光器直径约为人发直径的十分之一。这些微型激光器能够将电子存储的数据迅速、高效地转换为光信号,时钟频率高达每秒100亿次神经激活,相当于每秒处理10GHz数据流。更令人瞩目的是,单次转换所消耗的能量仅为数个阿托焦耳(attojoule,1阿托焦耳为10的负18次方焦耳),相当于数十个可见光单光子的能量,这一能耗水平比传统光群调制器低了五到六个数量级。该技术突破不仅显著降低了能耗,更极大提升了计算密度和延迟性能,为实现规模化并行计算提供了有力硬件基础。
未来,研究团队预计该技术还有潜力提升两至三个数量级,意味着计算效率和能耗优化将进一步加速,从而推动云端大型数据中心和分布式边缘设备如智能手机、物联网终端等实现更低功耗的高效人工智能应用。此外,相较于依赖庞大GPU集群进行训练的传统模型,光学神经网络减轻了对电力资源的依赖,具有更可持续和环保的优势。训练GPT-4这样的大型语言模型,通常需要超过2.5万个GPU连续工作三个月,耗电量高达50兆瓦时,相当于2000户家庭整年用电量,产生约12000吨二氧化碳排放。新型光学神经网络有望显著降低这一环境成本。该项目的成功还离不开多学科团队的紧密合作。除南加州大学和麻省理工学院的科研人员外,来自NTT研究机构及柏林工业大学的专家分别在激光器阵列制造与系统集成上提供了重要支持和设备。
项目获得了美国陆军研究办公室、国家科学基金会、加拿大自然科学与工程研究委员会等多方面资金资助,体现出光学计算技术在国防、科研及工业领域的广泛关注和应用潜力。此外,也推动了新一代光电子芯片设计与制造工艺的进步,为实现下一代超高速神经网络硬件打下坚实基础。展望未来,激光阵列光学神经网络技术不仅将在人工智能大规模模型的训练和推理环节展现巨大优势,同时在自动驾驶、智能制造、医疗诊断、实时语音识别等诸多边缘计算场景发挥关键作用。随着产业界对低功耗、高性能AI芯片需求不断增长,拥有更快、更节能的光学计算方案将成为技术创新的核心驱动力。同时,相关的电光转换技术、光子集成制造和系统架构设计也将进一步完善,推动光学计算技术进入商业化应用阶段。总之,该项采用激光阵列的光学神经网络处理器技术,以其超群的计算速度和惊人的能效表现,打破了传统电子计算的限制,为人工智能硬件性能的跃升提供了重要路径。
随着后续研发持续推进,预计未来几年内,基于光子的AI计算解决方案将在全球范围内引发新一轮科技浪潮,助力构建更加智能、高效、绿色的数字未来。 。