官方微信
官方微博
您的位置: 首页 > 行业研究 > 行业百科 > 光纤连接如何推动生成式人工智能革命
联系方式


联系人:李锋

电话:010-68638969
传真:010-68637639


银行汇款

账户:中国电子元件行业协会
开户行:中国工商银行北京八角支行
账号:0200 0134 0901 4406 379
统一社会信用代码:51100000500000736L
光纤连接如何推动生成式人工智能革命
来源:康宁光通信  浏览次数:1834  发布时间:2024-01-30

当你想到人工智能时,脑中会浮现什么?


早在半年前,ChatGPT就能够像人类一样提供答案,这些答案既符合语境,又具有技术上的合理性。但人工智能局限性也很明显,它会以要点形式给出回答,但实际上只是一个AI模型。


现在,当在ChatGPT上输入一个问题时,它的反应已经十分迅速,对此,ChatGPT的创建者们实现了哪些改变?


最有可能的情况是,为满足超过1亿用户的需求,OpenAI扩展了其人工智能集群的推理能力。据报道,在人工智能芯片制造商中处于领先地位的英伟达(NVIDIA)已供应大约20,000个图形处理单元(GPU),用于支持ChatGPT的开发,且有大幅增加图形处理单元使用的计划。有人推测,他们即将推出的人工智能模型可能需要多达1000万个图形处理单元。


GPU集群架构:生成式人工智能的基础


理解20,000个GPU的概念是容易办到的,但通过1000万个GPU的光连接来执行智能任务很具有挑战性。


如何先配置好较小的单元,逐渐将其扩大至包含数千个GPU的集群?我们以基于传统的超算(HPC)网络而编写的英伟达设计指南为例。


根据设计指南的建议,该过程使用多个具有256个GPU pod的较小单元(可扩展单元)来构建大量GPU集群。每个pod由8个服务器机架和2个网络机架(位于一排机柜中间位置)组成。这些pod内部以及相互之间的连接通过InfiniBand(部署在英伟达的Quantum-2交换机上的高速、低延迟交换协议)协议建立。


当前的InfiniBand交换机使用32个800G OSFP收发器,采用400G(NDR)双端口。每个端口使用8芯光纤,因此每台交换机有64x400G端口。且即将到来的新一代交换机,很大可能将采用XDR端口。这意味着每台交换机将有64x800G端口,每个端口也使用8芯光纤(主要是单模光纤)。


如表1所示,该4通道(8芯光纤)模式在InfiniBand路线图中反复出现,且未来将使用更快的速度。


1709282333706.jpeg

* 在4X(4通道)以Gb/s为单位表示链路速度

就布线而言,在超算(HPC)领域普遍采用的最佳做法是:采用点对点有源光缆(AOC)。然而,随着(MPO)光纤连接器接口的最新NDR端口的推出,点对点连接的情形已从AOC光缆转变为MPO-MPO无源跳线。在考虑单个具有256个GPU的pod时,利用点对点连接没有什么大问题。但是在追求更大的规模时就遇到了问题,例如16k GPU需要64个具有256个GPU的pod实现互连。这些高性能GPU集群使用的计算结构对于线路路由优化有极高的要求。在线路路由优化设置中,来自每个计算系统的所有主机通道适配器(HCA)均连接至同一个叶交换机(leaf switch)。


据说该设置对于最大限度提高深度学习(DL)训练性能至关重要。一个标准的H100计算节点配备4个双端口OSFP,转换为8个上行链路端口(每个GPU一个独立上行链路)与八个不同的叶交换机连接,由此建立一个8条线路优化结构。


该设计在处理单个具有256个GPU的pod时可以无缝工作。但如果目标是构建一个包含16,384个GPU的集群时该怎么办?在这种场景中,有必要增加两个交换层:来自每个pod的第一个叶交换机与脊交换机组一(SG1)中的每个交换机连接,每个pod内的第二个叶交换机与脊交换机组二(SG2)中的每个交换机连接,以此类推。为取得完全实现的胖树(fat-tree)拓扑结构,必须加入第三层核心交换组(CG)。


让我们回顾一下16,384个GPU集群的光缆连接数量。计算节点和叶交换机之间建立连接需要16,384根光缆,每个pod有256根MPO跳线。在开始网络拓展的过程时,建立叶-脊连接和脊-核心连接的任务变得更具有挑战性。涉及到先捆扎多根MPO跳线,然后将其敷设50米至500米不等的距离。



有没有更高效的运营方式?一个建议是采用结构化布线系统,该系统采用两个接线板设计,利用大芯数MPO干线,可能采用144根光纤。这样就能把18根MPO跳线(18x8=144)合并成一根干线光缆,一次敷设完成。通过在端点使用合适的MPO适配器面板,可将它们拆开为多根8芯光缆,并与恰当的线路连接,避免捆绑多根MPO跳线带来的复杂度。


对于一个非阻塞结构,每个pod需要256条上行链路。我们可选择从每个pod拉出15x144根光纤干线,产生270(15x18)上行链路(只需使用15个大芯数线缆)。另外,该设置提供14(270-256)个备用连接,可作备份或用于存储或管理网络连接。


人工智能在理解问题方面取得了重大进展。就实现这种转变而言,寻求能够支持广泛GPU集群(包括16K GPU或24K GPU)的布线解决方案,是这一难题的重要组成部分,也是光连接行业面临的挑战。


关于作者


Mustafa Keskin,康宁光通信应用解决方案经理。在光纤行业拥有19年的经验,擅长根据行业趋势和客户洞察研究,为数据中心和运营商中央办公空间确定架构解决方案。此前,作为全球团队的一员,他在数据中心EDGE8光缆系统的开发中发挥了重要作用;已发表的文章有:《在脊叶网络架构中使用康宁网格模块》。