国内AI算力需求将保持增长势头 AI服务器出货量有望年增38.4%

作者:小编 更新时间2023-11-14 17:15:16 点击数:

AI服务器是一种能够提供人工智能(AI)的数据服务器。它既可以用来支持本地应用程序和网页,也可以为云和本地服务器提供复杂的AI模型和服务。AI服务器有助于为各种实时AI应用提供实时计算服务。AI服务器主要有两种架构,一种是混合架构,可以将数据存储在本地,另一种是基于云平台的架构,使用远程存储技术和混合云存储(一种联合本地存储和云存储的技术)进行数据存储。

2023年AI服务器出货量有望年增38.4%

AI产业链通常由上游的数据和算力层、中游算法层和下游应用层构成。近期,市场更为关注上游产业链,尤其是算力板块。AI硬件涌现出很多新的投资机会,AI软件应用的背后靠硬件的算力支撑。

在ChatGPT持续催化下,国内AI算力需求将保持增长势头,算力服务器厂商有望受益。据估算,ChatGPT的总算力需要7个至8个投资规模30亿元、算力500P的数据中心支撑运行。在数字经济时代,全球数据总量和算力规模将呈现高速增长态势。

拥有“电子产品之母”之称的印制电路板(PCB)是服务器的重要组成部件。随着当下人工智能(AI)行业高速发展,令应用在AI服务器上的高价值量PCB产品市场需求大幅提升。

随着AI服务器与AI芯片需求同步看涨,预计2023年AI服务器(包含搭载GPU、FPGA、ASIC等主芯片)出货量将接近120万台,年增38.4%,占整体服务器出货量近9%,至2026年占比将进一步提升至15%,该机构同步上修2022-2026年AI服务器出货量年复合增长率至22%,而AI芯片2023年出货量预计将增长46%。

该机构表示,英伟达GPU已成为AI服务器所搭载芯片的主流,市占率约60-70%,其次为云计算厂商自主研发的ASIC芯片,市占率逾20%。

相比通用服务器,AI服务器使用多张加速卡,其PCB采用高多层HDI结构,价值量较高,而且主板层数也远高于通用服务器,AI服务器PCB价值量是普通服务器的价值量的5-6倍。

英伟达创始人兼CEO黄仁勋在NVIDIA Computex2023演讲中宣布,生成式AI引擎NVIDIA DGXGH200现已投入量产。从演示中可以观察到新发GH200服务器架构相对DGXH100有较大变化。GH200相对DGXH100的PCB变化,减少的是1张UBB和1张CPU母板,增加的是3张NVLink模组板,同时加速卡性能大幅度提升,PCB单机价值量应当有所增加,由此可见AI升级将持续带动PCB板块价值增值。

2023年AI服务器产业链需求前景

PCB承担服务器芯片基座、数据传输和连接各部件功能。AI服务器中由于芯片升级,PCB需针对性的升级改革,以处理更多的信号、减少信号干扰、增加散热以及电源管理等能力,在材料和工艺上都需进一步优化。相比通用服务器,AI服务器使用多张加速卡,其PCB采用高多层HDI结构,价值量较高,而且主板层数也远高于通用服务器,AI服务器PCB价值量是普通服务器的价值量的5-6倍。根据Prismark数据,2021年全球服务器领域PCB市场规模为78.04亿美元,预计2026年达到132.94亿美元,复合增长率为11.2%。服务器PCB单机价值量有望由2021年的576美元上升到2026年的705美元。随着AI大模型和应用的落地,市场对AI服务器的需求日益增加,市场扩容在即。

AI服务器出货量增加,相关的芯片、存储器、零部件供应商有望直接受益。

对于服务器芯片,TrendForce预计AI服务器芯片2023年出货量将增长46%。英伟达GPU为AI服务器市场搭载的主流芯片,市占率约60%-70%,其次为云端业者自研的AISC芯片,市占率超过20%。

AI服务器将刺激ServerDRAM、SSD与HBM需要同步升级。该机构更看好HBM(高带宽存储器)的增长空间,表示随着高端GPU如英伟达A100、H100,AMDMI200、MI300,以及谷歌自研TPU等需求皆逐步提升,预估2023年HBM(高带宽存储器)需求量将年增58%,2024年有望再增长约30%。

TrendForce称,在今年将有更多客户导入HBM3的前期下,SK海力士作为目前唯一一批新世代HBM3产品的供应商,其整体HBM市场占有率率可望借此提升至53%,而三星、美光则预测陆在今年底至明年初产量,HBM市占率分别为38%及9%。

随着国内外巨头先后投入大模型军备竞赛,以及大模型参数量快速增长、从单模态向多模态升级等发展趋势,叠加垂直行业大模型不断丰富、下游应用层出不穷、用户规模不断攀升,AI算力的需求有望持续增长。

大模型不断涌现及性能升级,驱动AI算力景气高位向上AI时代算力需求激增。根据OpenAI的测算数据,2012年以来最大的AI训练运行所使用的算力呈指数增长,每3-4个月增长一倍。2012-2018年,AI训练运行所使用的算力已增长超30万倍(相比之下摩尔定律仅增长7倍)。另据OpenAI于2020年的数据,训练一次1746亿参数的GPT-3模型需要的算力约为3640PFlop/s-day(假如每秒计算一千万亿次,需要计算3640天)。未来伴随国内外巨头先后加码大模型领域投入,以及各家大模型参数量快速增长、从单模态向多模态升级等发展趋势,以及用户规模的不断攀升,AI算力需求有望持续高景气。

2022年我国算力总规模达到180EFLOPS,存力总规模超过1000EB,国家枢纽节点间的网络单向时延降低到20毫秒以内,算力核心产业规模达到1.8万亿元。4月19日上海市经济和信息化委员会发布《上海市推进算力资源统一调度指导意见》。明确到2023年底,接入并调度4个以上算力基础设施,可调度智能算力达到1,000PFLOPS(FP16)以上;到2025年实现跨地域算力智能调度,通过高效算力调度,推动算力供需均衡,带动产业发展作用显著增强。上海市数据中心算力超过18,000PFLOPS(FP32);新建数据中心绿色算力占比超过10%;集聚区新建大型数据中心综合PUE降至1.25以内,绿色低碳等级达到4A级以上。

从产业格局来看,目前全球科技巨头均在加速算力侧的布局,软件厂商开始自研芯片,而硬件厂商则在搭建算力平台。一方面,包括微软、亚马逊、谷歌和Facebook等软件及互联网巨头均在加大自研AI芯片的投入,同样国内头部互联网厂商阿里、腾讯、百度等也均披露了AI芯片的自研计划,而另一方面,以英特尔为代表的芯片厂商则开始搭建算力平台,发力软件和云服务。在今年GTC(英伟达开发者大会)上,英伟达正式推出了AI云服务DGX Cloud,使企业能够即时接入用于训练生成式AI等开创性应用的高级模型所需的基础设施和软件,DGX Cloud可提供NVIDIA DGX™ AI超级计算专用集群,并配以NVIDIA AI软件。DGX Cloud能够让每个企业都可以通过的网络浏览器来访问NVIDIA的AI超级计算机,免除了购置、部署和管理本地基础设施的复杂性。DGX Cloud每月最低的订阅价格为3.7万美元。

算力资源作为数字经济发展的重要底座,数字化新事物、新业态、新模式推动应用场景向多元化发展,算力规模的不断扩大带动算力需求持续攀升。据工信部数据披露,2022年全国在用数据中心机架总规模超过650万标准机架;近5年,算力总规模年均增速超过25%。当算力在千行百业落地应用时,不同精度的算力需要“适配”多样化的应用场景。特别是随着人工智能技术的高速发展,算力结构随之演化,对智能算力的需求与日俱增。政策层面看,我国高度重视AI产业发展,智能算力发展的基础逐渐夯实。2022年2月,四部委再次联合印发通知,同意在8地启动建设国家算力枢纽节点,并规划10个国家数据中心集群。至此,全国一体化数据中心体系完成总体布局设计,随着“东数西算”工程全面实施,智算中心建设也进入了加快发展的新阶段。数据中心作为数据枢纽和应用载体,是人工智能发展的基础,长期来看数据中心需求有望恢复。预计2024年IDC市场规模达6123亿元,2022-2024年复合增速达15.9%,数据中心将进入新一轮上升期。