一天吃透一条产业链:AIDC(未来--智算中心) --知识铺
01 产业链全景图
02 AIDC简介
AIDC 全称是人工智能数据中心,你可以把它理解成 “AI 专属的超级后勤基地”—— 如果普通数据中心是小区里的配电房,负责给家家户户(比如我们手机联网、电脑存文件)提供基础电力和数据传输支持,那 AIDC 就是为 AI 这种 “高耗能大户” 量身建的 “特级保障站”。
AIDC 核心是给 AI 供能:大模型学习数据、生成内容需高算力服务器,AIDC 为这些服务器提供强于普通数据中心的电力、散热支持,保障数据传输速与安全。
普通数据中心满足日常需求,AIDC 服务 AI 高需求;没有它,AI 无法完成大模型训练、自动驾驶数据处理等重活。
IDC VS AIDC
IDC(互联网数据中心)就是数据的 “集中管理站”,专门用来存储、处理和传输数据,里面装着服务器、存储设备、网络设备,还有保障运行的电力和制冷设备。
IDC 正从传统模式向 AIDC 升级,已历经四个发展阶段 ——
2000 年前:网络中心阶段,公司信息化需求升,数据中心成流量载体,规模数量增长;
2000-2010 年:IT 中心阶段,服务拓展到数据存储、备份、安全,更趋多元;
2010-2020 年:云中心阶段,大规模数据中心成主流,建设主体变多元;
2020 年后:算力中心阶段,AI 算力需求上涨,数据中心运营商占主导。
两者之前又存在着本质的区别:
按下游应用场景不同,AIDC 可分为三种,其中超大型与大型 AIDC 会成为主流 —— 这就像 AI 的 “专属算力补给站” 分不同规模,超大型是能支撑大规模 AI 任务的 “核心基地”,大型是承接中量级需求的 “区域站点”,小型是服务局部需求的 “社区站点”,而未来主要靠超大型和大型补给站承接核心需求。占比如下:
03 上游产业链
AIDC 产业链价值量分两部分:IT 设备(服务器、网络设备、安全设备)占约 85%,是核心;非 IT 设备(土建、供配电、冷却系统)占约 15-20%,是基础。运营成本中电力成本占比最高。
03-1、AIDC机房
AI 时代一到,传统数据中心(IDC)就得往智算中心(AIDC)升级了。传统 IDC 能给用户提供从建筑、基础设施到服务器、应用等不同层级服务,像宽带、安全、服务器托管这些都算。但跟它比,AIDC 的机柜电力、机房 IT 容量都更高,能扛更高算力密度和更大规模算力集群,除了机房托管,还能提供算力租赁、智算平台这些增值服务,甚至模型服务、大模型应用,走的是定制化、智能化路子。
国内 IDC 市场按业务分,主要有零售、批发、基地代建三种模式。通常从客户结构、议价能力、盈利能力看,零售型>批发型>代建型。不过现在互联网大客户占比上升,一线零售和批发的界限越来越模糊,零售型也会按客户需求定制。
IDC 企业建设有五种常见模式,其中自建模式盈利最强。自建分两种:用自有土地的,毛利率是最高的;用租赁土地的则是另一种情况。
IDC 代建模式,核心是帮云计算企业建设 IDC 设施。其中,云计算企业要负责提供土地、建设厂房,同时需落实能耗指标、带宽、电力等必要资源,IDC 企业只需要投资相关的机电设备就行。云计算企业会用付租金的方式,覆盖 IDC 企业的前期投入成本,而且双方通常会约定一个较长的运营周期。
至于租赁模式和代运营模式,它们的毛利率都比较低,未来可能会逐渐退出市场。
03-2、AI 芯片(详解:一天吃透一条产业链:AI 芯片(引爆市场))
AI 算力芯片是算力体系的 “地基”。当前 AI 服务器主流异构方案为 CPU+GPU,类似 “总指挥 + 提速引擎”。
IDC 2018 年的数据能清晰看到成本分布:推理型、机器学习型服务器中,CPU+GPU 的成本占比在 50%-82.6%;尤其机器学习型服务器,单 GPU 的成本占比就达 72.8%,是这类服务器的核心开销。
AI 算力芯片靠强并行计算能力,像分拣中心快处理数据,高效完成 AI 训练推理;它既是服务器最高成本项,又提供底层算力,是 AI 运转的 “坚实底座”。
当前 AI 算力芯片领域,GPU 是毫无疑问的绝对主流,地位就像智能手机里的核心处理器一样关键;
而在全球市场中,英伟达的话语权堪比操作系统领域的 Windows,数据能印证这一点 ——2024 年上半年中国 AI 加速芯片出货量超 90 万张;2022 年英伟达在全球 AI 芯片市场占比超 80%,到了 AI 加速芯片领域,份额更是高达 95%,统治力十分明显。
03-3、AI 服务器
生成式 AI 运转核心是 AI 服务器,就像手机靠核心芯片才能用。AI 产业链分基础层、技术层、应用层,基础层是产业 “底盘”,像盖房打地基,专给 AI 提供数据和算力。
服务器有通用、云计算、边缘、AI 四种类型,AI 服务器专用于 AI 训练推理,其他类型无法满足。如今大模型与生成式 AI 爆发,高性能计算需求激增,AI 服务器是关键,核心部件包括 CPU、GPU、FPGA 芯片及 PCB 板、高速连接器等。
大模型大概率会带动 AI 服务器出货量快速增长,核心在于它催生了海量算力需求,而这必然进一步推动 AI 服务器市场扩大。具体看 IDC 的预测如下:
03-4、AI 液冷(详解:一天吃透一条产业链:液冷行业(高度关注))
AI 给液冷数据中心注入强动力,市场有望高速增长。AIGC 得靠高算力撑着,而计算芯片功耗越来越高,连带着服务器、整机柜功耗也涨,液冷散热就成了首选 —— 这就像电脑 CPU 功耗越高越需要强力散热器,液冷就是当前的最优解。
科智咨询:2023 年中国液冷数据中心规模 154 亿元(同比增 53.2%),2022-2027 年复合增速 59%,2027 年将破千亿。
04 中游产业链
04-1、市场规模
需求推着中国智算中心市场投资高速增长。按相关数据,2023 年市场规模达 879 亿元,同比增超 90%。预计 2024 年国产化芯片产能提升,算力供给瓶颈将缓解;未来 AI 大模型应用变多、商用加快,智算中心增长动力从训练转向推理,2028 年规模预计将会达 2886 亿元。
算力规模角度看,互联网及云厂商在智算中心建设中占重要地位。资料显示,企业主体能提供资金、技术、市场应用和市场化运营机制,比政府等国资平台更重效率效益。
中国智能算力增速高于预期。据 IDC 与浪潮信息报告,2025 年智能算力规模将达 1037.3EFLOPS,2028 年达 2781.9EFLOPS;2020-2028 年五年复合增长率预计 57.09%。
04-2、商业模式的演进
智算需求场景多样且高度定制,智算中心覆盖全链条,衍生多元服务。据白皮书(2024),服务含机房托管、算力租赁、AI 平台、模型定制、AI 应用。
机柜托管与算力租赁是当前主流。白皮书显示,产业初期智算中心提供机柜托管,服务器由用户自备;算力租赁尚处起步期,已用算力中约 35% 出租,其余自用。
算力租赁兴起,一是短期智算资源不足(尤其 GPU 紧缺),二是自建投资大、运维要求高、综合成本高。
中国移动白皮书指出,新型智算中心技术体系为 “三层两域”:基础设施层提供计算等硬件资源;智算平台层负责资源管理,提供实例、池化能力,还可搭建平台支持应用跨架构迁移;应用使能层集成主流 AI 开发框架。智算运维域管底层资源维护,运营域对外对接客户、对内调度资源。
技术发展分两个时期:集群时期,千亿级模型涌现,要求智算底座算力与扩展性强;超级池化时期,万亿级大模型使需求再升级,百卡组成的 “超级服务器” 或成新设备形态。
04-3、智算中心分布
智算中心分布是 “东多西少” 的格局,东数西算工程在加速推进,全国八大节点也被重点关注。像京津冀所在的华北、长三角所在的华东、粤港澳大湾区所在的华南,这些地方经济发达、互联网企业集中,智算需求大,数据中心签约率、服务费也比其他地区高。
现在推进东数西算工程,是提升跨区域算力调度能力的关键;随着智算中心需求持续增长,八大节点的重要性也越来越突出。
05 下游产业链——应用场景
下方扫码直接加入:
- 原文作者:知识铺
- 原文链接:https://index.zshipu.com/stock003/post/20251027/%E4%B8%80%E5%A4%A9%E5%90%83%E9%80%8F%E4%B8%80%E6%9D%A1%E4%BA%A7%E4%B8%9A%E9%93%BEAIDC%E6%9C%AA%E6%9D%A5--%E6%99%BA%E7%AE%97%E4%B8%AD%E5%BF%83/
- 版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 4.0 国际许可协议进行许可,非商业转载请注明出处(作者,原文链接),商业转载请联系作者获得授权。
- 免责声明:本页面内容均来源于站内编辑发布,部分信息来源互联网,并不意味着本站赞同其观点或者证实其内容的真实性,如涉及版权等问题,请立即联系客服进行更改或删除,保证您的合法权益。转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。也可以邮件至 sblig@126.com