到2027年,我国人工智能服务器市场规模预计将达到134亿美元

作者:小编 更新时间2023-12-01 08:58:06 点击数:

ChatGPT大火后,各大科技企业纷纷发力AI大模型,作为通用的算力芯片开始供不应求。AI时代浪潮汹涌,海量数据催生庞大的算力需求,带动AI服务器需求量与日俱增,用于服务器内、外部数据传输等接口芯片也随之攀升。

2027年我国人工智能服务器市场规模将达134亿美元

11月29日,在召开的2023人工智能计算大会(AICC)上,国际数据公司IDC和浪潮信息联合发布《2023—2024年中国人工智能计算力发展评估报告》。报告预计,2023年中国人工智能服务器市场规模将达91亿美元,同比增长82.5%,2027年将达到134亿美元,年复合增长率达21.8%。

报告认为,人工智能正在加速从感知智能向生成式智能迈进,人工智能算力需求也因此快速增长。报告预计2022—2027年中国智能算力规模年复合增长率达33.9%,通用算力规模年复合增长率为16.6%。全球人工智能硬件市场(服务器)规模将从2022年的195亿美元增长到2026年的347亿美元,年复合增长率达17.3%;其中,用于运行生成式人工智能的服务器市场规模在整体人工智能服务器市场的占比将从2023年的11.9%增长至2026年的31.7%。

报告指出,中国人工智能技术正加速迈入全面应用时代,2023年人工智能的行业渗透度排名前五的行业依次为互联网、电信、政府、金融和制造,其中,电信从上一年的第四跃升至第二。

AI服务器是一种能够提供人工智能(AI)的数据服务器。它既可以用来支持本地应用程序和网页,也可以为云和本地服务器提供复杂的AI模型和服务。AI服务器有助于为各种实时AI应用提供实时计算服务。

AI服务器主要有两种架构,一种是混合架构,可以将数据存储在本地,另一种是基于云平台的架构,使用远程存储技术和混合云存储(一种联合本地存储和云存储的技术)进行数据存储。

AI服务器成本主要来自CPU、GPU等芯片,占比50%以上

服务器由电源、CPU、内存、硬盘、风扇、光驱等几部分构成,芯片成本(CPU、GPU等)占比较高,在25%-70%不等;

AI服务器采用异构形式,按芯片类型可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组合;目前GPU依然是实现数据中心加速的首选,其他非GPU芯片应用逐渐增多,IDC预计到2025年其他非GPU芯片占比超过20%;一般来说,ASIC的性能最好,但是可编程性和灵活性较弱;在训练或者通用情况下,GPU则是更好的选择。

AI服务器行业市场分析

中国在AI服务器水平位于世界前列。AI服务器采用CPU+加速芯片的架构形式,在进行模型的训练和推断时会更具有效率优 势。与国外AI芯片厂商的垄断局面不同,中国AI服务器水平位于世界前列。

据IDC数据,2022年中国AI服务器市场(按销售 额),浪潮以46.6%份额占据首位,新华三、宁畅分别以11%和9%占据第二、第三名。

中国AI服务器产业链上游为核心零部件及软件供应;中游为AI服务器厂商;下游为各类应用市场,包括互联网企业、云计算企业、数据中心服务商、政府部门、金融机构、医疗领域、电信运营商等。

在IDC中国AI基础架构分析师杜昀龙看来,目前本土芯片厂商的技术水平与国际先进水平比起来要相对落后,生态建设同样不够完善。不过,芯片领域的供需关系在逐渐发生变化,许多企业由原本的“国际采购”转向“本地采购”或“自研自用”,为我国芯片企业发展创造了有利条件。

过去五年(2018—2022年),北京、杭州、上海、深圳、广州、合肥、苏州、重庆等城市在人工智能领域具有较为突出的表现。受到生成式人工智能、智能计算中心投入的影响,2023年中国人工智能城市评估排行榜发生变化,北京依然位居首位,杭州和深圳分别位列第二位和第三位。此外,位居前十的城市还有上海、苏州、广州、济南、合肥、重庆和成都。