01  产业链全景图

图片

02  AIDC简介

AIDC 全称是人工智能数据中心,你可以把它理解成 “AI 专属的超级后勤基地”—— 如果普通数据中心是小区里的配电房,负责给家家户户(比如我们手机联网、电脑存文件)提供基础电力和数据传输支持,那 AIDC 就是为 AI 这种 “高耗能大户” 量身建的 “特级保障站”。

AIDC 核心是给 AI 供能:大模型学习数据、生成内容需高算力服务器,AIDC 为这些服务器提供强于普通数据中心的电力、散热支持,保障数据传输速与安全。

普通数据中心满足日常需求,AIDC 服务 AI 高需求;没有它,AI 无法完成大模型训练、自动驾驶数据处理等重活。

图片

IDC VS AIDC

IDC(互联网数据中心)就是数据的 “集中管理站”,专门用来存储、处理和传输数据,里面装着服务器、存储设备、网络设备,还有保障运行的电力和制冷设备。

IDC 正从传统模式向 AIDC 升级,已历经四个发展阶段 ——

2000 年前:网络中心阶段,公司信息化需求升,数据中心成流量载体,规模数量增长;

2000-2010 年:IT 中心阶段,服务拓展到数据存储、备份、安全,更趋多元;

2010-2020 年:云中心阶段,大规模数据中心成主流,建设主体变多元;

2020 年后:算力中心阶段,AI 算力需求上涨,数据中心运营商占主导。

图片

两者之前又存在着本质的区别:

图片

按下游应用场景不同,AIDC 可分为三种,其中超大型与大型 AIDC 会成为主流 —— 这就像 AI 的 “专属算力补给站” 分不同规模,超大型是能支撑大规模 AI 任务的 “核心基地”,大型是承接中量级需求的 “区域站点”,小型是服务局部需求的 “社区站点”,而未来主要靠超大型和大型补给站承接核心需求。占比如下:

图片

03  上游产业链

AIDC 产业链价值量分两部分:IT 设备(服务器、网络设备、安全设备)占约 85%,是核心;非 IT 设备(土建、供配电、冷却系统)占约 15-20%,是基础。运营成本中电力成本占比最高。

图片

图片

03-1、AIDC机房

AI 时代一到,传统数据中心(IDC)就得往智算中心(AIDC)升级了。传统 IDC 能给用户提供从建筑、基础设施到服务器、应用等不同层级服务,像宽带、安全、服务器托管这些都算。但跟它比,AIDC 的机柜电力、机房 IT 容量都更高,能扛更高算力密度和更大规模算力集群,除了机房托管,还能提供算力租赁、智算平台这些增值服务,甚至模型服务、大模型应用,走的是定制化、智能化路子。

国内 IDC 市场按业务分,主要有零售、批发、基地代建三种模式。通常从客户结构、议价能力、盈利能力看,零售型>批发型>代建型。不过现在互联网大客户占比上升,一线零售和批发的界限越来越模糊,零售型也会按客户需求定制。

图片

IDC 企业建设有五种常见模式,其中自建模式盈利最强。自建分两种:用自有土地的,毛利率是最高的;用租赁土地的则是另一种情况。

IDC 代建模式,核心是帮云计算企业建设 IDC 设施。其中,云计算企业要负责提供土地、建设厂房,同时需落实能耗指标、带宽、电力等必要资源,IDC 企业只需要投资相关的机电设备就行。云计算企业会用付租金的方式,覆盖 IDC 企业的前期投入成本,而且双方通常会约定一个较长的运营周期。

至于租赁模式和代运营模式,它们的毛利率都比较低,未来可能会逐渐退出市场。

图片

03-2、AI 芯片(详解:一天吃透一条产业链:AI 芯片(引爆市场)

AI 算力芯片是算力体系的 “地基”。当前 AI 服务器主流异构方案为 CPU+GPU,类似 “总指挥 + 提速引擎”。

IDC 2018 年的数据能清晰看到成本分布:推理型、机器学习型服务器中,CPU+GPU 的成本占比在 50%-82.6%;尤其机器学习型服务器,单 GPU 的成本占比就达 72.8%,是这类服务器的核心开销。

AI 算力芯片靠强并行计算能力,像分拣中心快处理数据,高效完成 AI 训练推理;它既是服务器最高成本项,又提供底层算力,是 AI 运转的 “坚实底座”。

图片

当前 AI 算力芯片领域,GPU 是毫无疑问的绝对主流,地位就像智能手机里的核心处理器一样关键;

而在全球市场中,英伟达的话语权堪比操作系统领域的 Windows,数据能印证这一点 ——2024 年上半年中国 AI 加速芯片出货量超 90 万张;2022 年英伟达在全球 AI 芯片市场占比超 80%,到了 AI 加速芯片领域,份额更是高达 95%,统治力十分明显。

图片

03-3、AI 服务器

生成式 AI 运转核心是 AI 服务器,就像手机靠核心芯片才能用。AI 产业链分基础层、技术层、应用层,基础层是产业 “底盘”,像盖房打地基,专给 AI 提供数据和算力。

服务器有通用、云计算、边缘、AI 四种类型,AI 服务器专用于 AI 训练推理,其他类型无法满足。如今大模型与生成式 AI 爆发,高性能计算需求激增,AI 服务器是关键,核心部件包括 CPU、GPU、FPGA 芯片及 PCB 板、高速连接器等。

图片

大模型大概率会带动 AI 服务器出货量快速增长,核心在于它催生了海量算力需求,而这必然进一步推动 AI 服务器市场扩大。具体看 IDC 的预测如下:

图片

03-4、AI 液冷(详解:一天吃透一条产业链:液冷行业(高度关注)

AI 给液冷数据中心注入强动力,市场有望高速增长。AIGC 得靠高算力撑着,而计算芯片功耗越来越高,连带着服务器、整机柜功耗也涨,液冷散热就成了首选 —— 这就像电脑 CPU 功耗越高越需要强力散热器,液冷就是当前的最优解。

图片

科智咨询:2023 年中国液冷数据中心规模 154 亿元(同比增 53.2%),2022-2027 年复合增速 59%,2027 年将破千亿。

图片

04  中游产业链

图片

04-1、市场规模

需求推着中国智算中心市场投资高速增长。按相关数据,2023 年市场规模达 879 亿元,同比增超 90%。预计 2024 年国产化芯片产能提升,算力供给瓶颈将缓解;未来 AI 大模型应用变多、商用加快,智算中心增长动力从训练转向推理,2028 年规模预计将会达 2886 亿元。

算力规模角度看,互联网及云厂商在智算中心建设中占重要地位。资料显示,企业主体能提供资金、技术、市场应用和市场化运营机制,比政府等国资平台更重效率效益。

中国智能算力增速高于预期。据 IDC 与浪潮信息报告,2025 年智能算力规模将达 1037.3EFLOPS,2028 年达 2781.9EFLOPS;2020-2028 年五年复合增长率预计 57.09%。

图片

04-2、商业模式的演进

智算需求场景多样且高度定制,智算中心覆盖全链条,衍生多元服务。据白皮书(2024),服务含机房托管、算力租赁、AI 平台、模型定制、AI 应用。

机柜托管与算力租赁是当前主流。白皮书显示,产业初期智算中心提供机柜托管,服务器由用户自备;算力租赁尚处起步期,已用算力中约 35% 出租,其余自用。

算力租赁兴起,一是短期智算资源不足(尤其 GPU 紧缺),二是自建投资大、运维要求高、综合成本高。

图片

中国移动白皮书指出,新型智算中心技术体系为 “三层两域”:基础设施层提供计算等硬件资源;智算平台层负责资源管理,提供实例、池化能力,还可搭建平台支持应用跨架构迁移;应用使能层集成主流 AI 开发框架。智算运维域管底层资源维护,运营域对外对接客户、对内调度资源。

技术发展分两个时期:集群时期,千亿级模型涌现,要求智算底座算力与扩展性强;超级池化时期,万亿级大模型使需求再升级,百卡组成的 “超级服务器” 或成新设备形态。

图片

04-3、智算中心分布

智算中心分布是 “东多西少” 的格局,东数西算工程在加速推进,全国八大节点也被重点关注。像京津冀所在的华北、长三角所在的华东、粤港澳大湾区所在的华南,这些地方经济发达、互联网企业集中,智算需求大,数据中心签约率、服务费也比其他地区高。

现在推进东数西算工程,是提升跨区域算力调度能力的关键;随着智算中心需求持续增长,八大节点的重要性也越来越突出。

图片

05  下游产业链——应用场景

图片

图片

下方扫码直接加入:

图片

图片

图片