东吴证券-电子行业点评报告:AIScale~Up趋势下,交换芯片迎千亿空间

“精选摘要:等开放标准为第三方互联厂商打开了机会窗口。海外市场AsteraLab一骑绝尘。AsteraLab深度参与AMD的UAlink和AWS的TrainiumNeuronLink生态,占据了非NVIDIA阵营的核心互联位置,并有望伴随AI基建扩张持续放量。市场空间:AI服务器崛起驱动Switch芯。”
1. 推理时代性能瓶颈转移:从“算力”到“运力”。
2. 小批量、低精度、MoE的推理任务对计算本身要求不高,但在分布式部署下,多卡之间的通信延迟往往成为效率瓶颈。
3. 为此,行业正在把互联方式从机柜之间的Scale-Out网络转向机柜内部的Scale-Up网络(NVLink、UALink、PCIe等),利用更短的传输距离实现更高带宽和更低延迟,从而提升整体吞吐。
4. 在Scale-Up网络架构中,AI服务器内部使用的switch芯片大致可分CPU–GPU连接与GPU–GPU互联两类。
5. 前者主要负责把CPU的有限上行通道扩展出来,连接到多块GPU、网卡以及存储设备。
6. GPU–GPUswitch芯片则直接服务于GPU之间的大规模数据面通信。
7. 是GPU集群实现高带宽、低延迟的核心。
8. GPU+Switch紧耦合背景下,GPU百花齐放带动Switch格局生变。
9. 早先英伟达时代,NVGPU+NVLinkSwitch共同掌握AI“霸权”。
10. 不同于训练时代NVIDIA独占的封闭体系,推理市场的加速芯片更加多样,PCIe6/7、UALink、NeuronLink等开放标准为第三方互联厂商打开了机会窗口。
11. 海外市场AsteraLab一骑绝尘。
12. AsteraLab深度参与AMD的UAlink和AWS的TrainiumNeuronLink生态,占据了非NVIDIA阵营的核心互联位置,并有望伴随AI基建扩张持续放量。
13. 市场空间:AI服务器崛起驱动Switch芯片市场高增,2025-2027市场规模翻倍增长。
14. 据TrendForce,全球AI服务器在2022–2029年的出货量复合增速约为27.2%。
15. 我们选取2023–2027年的出货量作为测算基础。
16. 在配置假设上,我们参考AI服务器的典型参数:单机搭载8颗GPU、2颗CPU。
17. 根据主流互联方案(图1),设定GPU与Switch的配比为2:1;CPU–Switch的配比依据主流服务器的dualroot架构,取1:1,从而推算出AI服务器对GPU互联Switch与CPU-GPU互联Switch芯片需求量。
18. 在价格假设上,据GlobalTechResearch,PCIeGen5Switch芯片的ASP为450美元,约合3500元人民币。
19. 后续迭代产品价格随代际提升,假设PCIeGen6/Gen7的ASP约为7000元人民币。
20. 在此基础上,再结合各代产品的年度渗透率预估,推算得到整体ASP变化趋势。
21. 由此测算得出2025年市场规模约为491.39亿元;2027年市场规模扩大至1022.23亿元。
22. 投资建议:重点推荐盛科通信、海光信息,建议关注澜起科技。
23. -盛科通信:在高规格以太网交换芯片上持续推进:最大端口速率800G、交换容量12.8T/25.6T的产品已完成向客户送样与导入测试,并在2024年实现小批量交付。
24. -海光信息:于24年报中披露开展先进封装与高带宽低时延Chiplet互联相关研发,并在高速I/O支持上涵盖PCIe、CXL。
25. -澜起科技:于2025年1月22日发布PCIe6.x/CXL3.xRetimer并已向客户送样;此前其PCIe5.0/CXL2.0Retimer已量产。
26. 风险提示:地缘政治不确定性、需求不及预期、技术迭代风险等。
此文章来源于网络,如有侵权,请联系第一时间删除