加州初创公司推出光学互连技术,解决AI计算的带宽问题
芝能智芯出品
加州初创公司Lightmatter近日推出了两项突破性的光学互连技术——Passage L200和Passage M1000,解决人工智能(AI)多芯片设计中日益严峻的带宽瓶颈问题,利用光信号替代传统电信号,分别实现了高达256 Tbps和114 Tbps的I/O带宽,提升了AI计算的性能和效率。
● Passage L200作为全球首款3D共封装光学(CPO)产品,提供32 Tbps和64 Tbps版本,可将AI模型训练时间缩短至原来的八分之一;
● Passage M1000则是一个光子超级芯片参考平台,支持超大规模多芯片AI处理器设计。
去年底Lightmatter通过4亿美元的D轮融资,总计融资金额达8.5亿美元,公司估值达到44亿美元,并与GlobalFoundries、ASE和Amkor等行业巨头合作,确保产品于2025年和2026年上市。
伴随着AI计算需求的激增,Lightmatter的技术提升了数据中心的性能,还为能效和可扩展性提供了全新解决方案。
️Part 1
️Lightmatter的光学互连技术:
️突破传统限制的技术创新
● Passage L200
Lightmatter的Passage L200是全球首款3D共封装光学(CPO)产品,专为下一代XPU(处理器、加速器或GPU)和交换机硅设计打造。
这一技术通过将光学器件直接集成到芯片封装中,消除了传统电信号I/O对芯片边缘(即“前沿”)的依赖,实现了“无边缘I/O”的设计理念。
L200提供32 Tbps和64 Tbps两个版本,总I/O带宽可达256 Tbps,相较于现有解决方案提升了5到10倍的性能。
◎ Passage L200采用3D堆叠架构,将Alphawave的I/O芯片与客户的XPU硅片并排放置,并通过Lightmatter的Passage有源光学插入器进行垂直通信。
◎ I/O和XPU芯片组使用标准晶圆上芯片工艺安装在Passage插入器上,通过UCIe协议实现无缝通信,无需修改软件。
◎ 硅通孔(TSV)技术则将电力从下方电路板传输至上方XPU,确保高效供电。
每个64 Tbps版本配备四个I/O芯片,每根光纤提供1.6 Tbps带宽(基于每波长112 Gbps,16个波长),比当前NVLink技术快18倍,比传统可插拔光学器件快2倍。
Passage L200的高带宽和低延迟特性使其在AI计算中表现出色。例如,其64 Tbps版本可为单个封装提供256 Tbps的I/O带宽,显著缩短数据传输时间,使AI模型训练速度提升至传统技术的8倍。
此外,光学传输相比电信号产生更少的热量,降低了功耗和散热需求。
Lightmatter首席执行官尼克·哈里斯(Nick Harris)表示:“L200和L200X将于2026年全面上市,我们正与客户芯片整合,彻底改变AI计算的硬件架构。”
● Passage M1000
Passage M1000是Lightmatter推出的光子超级芯片参考平台,基于相同的Passage有源光学插入器技术,旨在为超高性能多芯片AI处理器提供支持。
◎ 该平台通过固态光开关实现可编程波导网络,总光学带宽高达114 Tbps,每个封装支持1.5 kW的电力供应。
◎ Passage M1000采用多光罩有源光子插入器,面积超过4000平方毫米,是目前全球最大的3D封装芯片复合体。
◎ 它支持256根光纤边缘连接,每根光纤带宽为448 Gbps,可在一个扩展域内连接多达2000个GPU。
哈里斯强调:“M1000是理论上最小尺寸的高带宽封装,传统CPO技术因光学模块外置而体积庞大且散热困难,而M1000将光学器件集成于芯片内部,解决了这些问题。”
Passage M1000特别适用于需要大规模计算资源的AI任务,如大型语言模型(LLM)的训练和推理。
通过光学互连消除I/O前沿限制,M1000允许计算芯片在封装内任意位置布置Serdes,实现前所未有的灵活性和扩展性。这一特性使其成为构建百万节点AI计算集群的理想平台,将于2025年夏季上市。
● Lightmatter的光学互连技术相较传统电信号互连具有显著优势:
◎ 超高带宽:光信号在更小的物理空间内传输更多数据,L200和M1000的带宽远超传统技术。
◎ 低延迟:光速传输减少了数据延迟,提升了AI计算的实时性。
◎ 低能耗:光信号热损耗低,有效降低数据中心功耗。
◎ 高可扩展性:光学互连支持计算资源的无缝扩展,适应AI需求的快速增长。
Lightmatter将光学技术与计算单元深度整合的策略,彻底颠覆了传统芯片互连的局限性。
️Part 2
️市场影响
️与Lightmatter的战略定位
随着生成式AI和大型语言模型(如GPT-4)的兴起,AI计算需求呈指数级增长。训练这些模型需要数千甚至上万GPU协同工作,而传统电信号互连技术在带宽和能耗方面已接近极限。
例如,NVIDIA的NVLink最新平台(NVL72)提供7 Tbps的芯片间传输速度,但仍无法完全满足未来AI集群的需求。
此外,电信号互连的高延迟和能耗问题进一步限制了计算集群的效率。Lightmatter的光学互连技术应运而生,其产品已将芯片互连速度提升至30 Tbps,并计划推出100 Tbps版本。
相比之下,Passage L200和M1000分别提供256 Tbps和114 Tbps的带宽,不仅大幅提升了数据传输效率,还通过光信号降低了能耗,为AI数据中心提供了可持续发展的路径。
2024年底,Lightmatter完成4亿美元D轮融资,由T. Rowe Price Associates领投,GV(Google Ventures)等现有投资者跟投,总融资金额达8.5亿美元,公司估值升至44亿美元。这一资金支持将加速其产品研发和市场化进程。
与此同时,Lightmatter与GlobalFoundries、ASE和Amkor等行业领导者合作,利用GlobalFoundries的Fotonix平台生产硅光子芯片,并通过ASE和Amkor完成封装,确保产品质量和量产能力。
哈里斯表示:“我们借鉴台积电的商业模式,不偏袒任何客户,而是为其提供技术平台,帮助他们扩展市场。”这种开放合作策略有助于Lightmatter在AI计算生态中建立广泛影响力。
Lightmatter通过Idiom软件平台降低了技术采用门槛。Idiom支持开发者将基于PyTorch、TensorFlow或ONNX的模型直接运行于Lightmatter的光子架构,无需修改代码。这一兼容性极大提升了其产品的市场接受度。
此外,Idiom提供模型优化工具,如压缩和量化,帮助开发者在保持性能的同时缩小模型体积,满足多样化的AI应用需求。
随着AI计算需求的持续攀升,光学互连技术被视为解决数据中心瓶颈的关键方向。Lightmatter凭借其在硅光子学领域的技术积累和先发优势,已成为该领域的领军企业。
然而,竞争也在加剧,如Celestial AI等公司也在探索类似的光子计算技术。尽管如此,Lightmatter通过与行业巨头的合作和全面的软硬件生态,巩固了其市场地位。
Passage M1000(2025年上市)和L200/L200X(2026年上市)的推出,将进一步强化其在AI计算市场的领导力。
️小结
Lightmatter的Passage L200和M1000代表了AI计算硬件领域的一次革命性突破。通过将光信号应用于芯片互连和计算,打破了传统电信号的带宽和能耗瓶颈,为AI数据中心提供了高效、可扩展的解决方案。