公司新闻 产品新闻 知识/资讯分享
智能时代,AI服务器迎来“黄金时代”
发布者:法本电子   2025-01-07

在人工智能技术热潮的推动下,全球AI算力需求激增,AI服务器市场也随之进入了快速扩张阶段。

AI服务器主要用于处理深度学习工作负载所需的海量数据,尤其是在训练和推理过程中,涉及大内存容量、高带宽和系统内缓存一致性等关键需求。与普通服务器相比,AI服务器通常采用“异构形式”,具备更强的计算能力、更快的处理速度和更大的存储空间,从而能够高效支持高负载和复杂的计算任务。


市场前景广阔



传统服务器市场每年出货量约为1200万台,市场规模达1200亿美元。与之相较,AI服务器由于具备更高的单机价值和算力需求,展现出远远超越传统服务器的市场潜力。

01
Number
市场迅猛增长


作为算力的“发动机”,AI服务器的需求正在呈现爆发式增长。根据Counterpoint Research发布的最新报告,2024年第二季度全球服务器市场收入同比增长了35%,达到454.22亿美元。其中,AI服务器的收入占比已提升至19%。

AI服务器市场,根据IDC的预测,2023年全球AI服务器市场规模预计达到211亿美元,预计到2025年将突破317亿美元,2023至2025年的年均增长率(CAGR)将达到22.7%。从国内市场看,2024年上半年加速服务器市场规模预计达到50亿美元,同比增长63%。其中,GPU服务器继续占据主导地位,市场规模为43亿美元,而NPU、ASIC、FPGA等非GPU加速服务器的市场增速惊人,同比增长率高达182%,市场规模接近7亿美元。

02
Number
出货量独占鳌头


尽管全球服务器整体出货量增速放缓,AI服务器的出货量却持续增长。2022年,全球服务器出货量增长4.8%,达到1360万台;2023年预计增速将放缓至1.5%。根据TrendForce的数据,2023年AI服务器的出货量预计将超过120万台,占全球服务器总出货量的近9%,年增长率高达38.4%。预计到2026年,AI服务器的出货量将达到237万台,占比提升至15%,年复合增长率(CAGR)预计保持在25%左右。

类型与应用场景



AI服务器采用异构架构,能够根据不同应用的需求灵活调配算力,为不同场景提供定制化的计算支持。根据处理器类型,AI服务器可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组合。GPU依然是数据中心加速的首选芯片,但非GPU芯片(如NPU、ASIC等)逐渐占据了一席之地。根据IDC预测,2025年非GPU芯片的市场份额将超过20%。在性能方面,ASIC在某些特定应用场景中表现突出,但其可编程性和灵活性较弱;而GPU则在深度学习训练和通用场景中更具优势。

按照用途分类,AI服务器可分为训练型推理型。训练型服务器通常对存储、带宽和算力要求极高,常采用8-GPU设计;而推理型服务器则对算力的需求较为灵活,依据不同业务场景,可搭载GPU、NPU或CPU等不同芯片,甚至通过PCLe接口的AI加速器来实现推理任务。

全球市场分布



北美主导,亚太崛起
在地区市场分布方面,北美在2023年占据了全球AI服务器市场的38.2%份额,主要得益于硅谷等科技巨头的引领和早期采纳AI技术。欧洲市场占比为27.5%,这一增长受到政府政策支持和持续投资于AI研发的推动。亚太地区,尤其是中国和印度等新兴经济体对AI技术需求不断上升,预计2024年将成为全球增长最快的区域,市场份额预计达到22.1%。
从算力需求的激增到AI基础设施的加速建设,AI服务器无疑将在未来几年继续引领科技创新的浪潮。作为国内领先的电子元器件分销商,法本电子拥有丰富的产品线和品牌资源,包括太阳诱电TAIYO YUDEN、罗姆ROHM、瑞萨Renesas、安世Nexperia、尼吉康Nichicon万裕、丰宾等,可面向AI服务器应用领域提供高价值的元器件产品和服务。未来,法本电子将携手更多合作伙伴,充分利用自身的技术能力和市场资源,共同为AI服务器产业链创造价值。
合作伙伴
联系我们

© 2024 深圳法本电子股份有限公司 版权所有 粤ICP备16066940号 粤公网安备 44030502008261号