在人工智能技术热潮的推动下,全球AI算力需求激增,AI服务器市场也随之进入了快速扩张阶段。
AI服务器主要用于处理深度学习工作负载所需的海量数据,尤其是在训练和推理过程中,涉及大内存容量、高带宽和系统内缓存一致性等关键需求。与普通服务器相比,AI服务器通常采用“异构形式”,具备更强的计算能力、更快的处理速度和更大的存储空间,从而能够高效支持高负载和复杂的计算任务。
传统服务器市场每年出货量约为1200万台,市场规模达1200亿美元。与之相较,AI服务器由于具备更高的单机价值和算力需求,展现出远远超越传统服务器的市场潜力。
作为算力的“发动机”,AI服务器的需求正在呈现爆发式增长。根据Counterpoint Research发布的最新报告,2024年第二季度全球服务器市场收入同比增长了35%,达到454.22亿美元。其中,AI服务器的收入占比已提升至19%。
AI服务器市场,根据IDC的预测,2023年全球AI服务器市场规模预计达到211亿美元,预计到2025年将突破317亿美元,2023至2025年的年均增长率(CAGR)将达到22.7%。从国内市场看,2024年上半年加速服务器市场规模预计达到50亿美元,同比增长63%。其中,GPU服务器继续占据主导地位,市场规模为43亿美元,而NPU、ASIC、FPGA等非GPU加速服务器的市场增速惊人,同比增长率高达182%,市场规模接近7亿美元。
尽管全球服务器整体出货量增速放缓,AI服务器的出货量却持续增长。2022年,全球服务器出货量增长4.8%,达到1360万台;2023年预计增速将放缓至1.5%。根据TrendForce的数据,2023年AI服务器的出货量预计将超过120万台,占全球服务器总出货量的近9%,年增长率高达38.4%。预计到2026年,AI服务器的出货量将达到237万台,占比提升至15%,年复合增长率(CAGR)预计保持在25%左右。
AI服务器采用异构架构,能够根据不同应用的需求灵活调配算力,为不同场景提供定制化的计算支持。根据处理器类型,AI服务器可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组合。GPU依然是数据中心加速的首选芯片,但非GPU芯片(如NPU、ASIC等)逐渐占据了一席之地。根据IDC预测,2025年非GPU芯片的市场份额将超过20%。在性能方面,ASIC在某些特定应用场景中表现突出,但其可编程性和灵活性较弱;而GPU则在深度学习训练和通用场景中更具优势。
按照用途分类,AI服务器可分为训练型和推理型。训练型服务器通常对存储、带宽和算力要求极高,常采用8-GPU设计;而推理型服务器则对算力的需求较为灵活,依据不同业务场景,可搭载GPU、NPU或CPU等不同芯片,甚至通过PCLe接口的AI加速器来实现推理任务。