1.1 标准定位与背景
随着大模型参数量呈爆发式增长,多模态应用持续突破,智能推理需求激增,直接驱动算力规模指数级跃升,也让超节点互联规模与设备部署密度同步大幅提升。这场前所未有的“算力洪流”,对人工智能数据中心基础设施提出颠覆性挑战,传统数据中心基于稳态负载的渐进式设计范式,在 AI 业务高波动、高密度、快迭代的特性下,已面临系统性适配危机。
围绕《AIDC基础设施规范》v0.8,从标准定位、适用范围、功率等级、内容框架、供配电与液冷要求、绿色节能目标、实施建议与产业价值八个维度进行系统梳理。
《AIDC基础设施规范》(Artificial Intelligence Data Center Infrastructure Specification)是全球计算联盟(GCC)发布的业界首个针对人工智能数据中心建设的系统性技术标准文件。该规范于 2025 年 9 月 17 日在首届 AIDC 产业发展大会上预发布,于 2026 年 1 月 9 日通过技术指导委员会审核,正式发布 v0.8 版本。
随着大模型参数量呈爆发式增长,多模态应用持续突破,智能推理需求激增,直接驱动算力规模指数级跃升,也让超节点互联规模与设备部署密度同步大幅提升。这场前所未有的“算力洪流”,对人工智能数据中心基础设施提出颠覆性挑战,传统数据中心基于稳态负载的渐进式设计范式,在 AI 业务高波动、高密度、快迭代的特性下,已面临系统性适配危机。
| 项目 | 内容 |
|---|---|
| 标准全称 | AIDC基础设施规范 |
| 版本号 | V0.8(正式发布版) |
| 发布机构 | 全球计算联盟(GCC)- Open AI Infra社区 |
| 发布时间 | 预发布:2025年9月17日;正式发布:2026年1月 |
| 牵头单位 | 益企研究院 |
| 标准性质 | 团体标准 / 社区规范 |
该规范由益企研究院牵头,联合数十家行业领军企业共同编撰,参编单位覆盖互联网和运营商等用户、服务器产业、芯片、设计院、IDC基础设施等领域。核心参与单位包括华为、字节跳动、快手、京东、百度、超聚变、中通服、电子院、万国数据、世纪互联、曙光数创、联想、中国移动、润泽科技、远景能源、小红书、哔哩哔哩、新华三、英维克、维谛技术、普洛斯、皓扬云数据、施耐德电气、三河同飞等。
《AIDC基础设施规范》面向人工智能数据中心全域场景,从园区、楼栋到楼层进行一体化设计,对建筑结构、供配电、散热及网络综合布线实现全面协同规划。
| 功率等级 | 单机柜功率范围 | 典型应用场景 |
|---|---|---|
| 一级 | 100kW | 通用 AI 推理、轻量级训练 |
| 二级 | 200kW | 中等规模训练、混合负载 |
| 三级 | 300kW | 超大规模训练、高性能计算 |
相关的风冷、液冷、供配电按等级定义接口,弹性支持 100kW 至 300kW 不同产品,本质上是在为基础设施与机柜设备建立长期解耦的工程接口体系。
《AIDC基础设施规范》涵盖 AIDC 基础设施建设全流程关键环节,形成从总则到交付运维的八章体系。
AIDC 基础设施对供配电、制冷、土建与网络提出更高要求,尤其在高功率密度场景下,液冷已从辅助选项升级为关键配置方向。
以高可靠性、分布式和标准化接口为核心。
液冷技术成为 AIDC 与传统数据中心的关键分界点。
土建规划从一开始就要面向高密液冷机柜时代。
满足 AI 集群低延迟、高带宽互联需求。
适用于存量机房改造和中等密度场景,改装便捷,GPU 寿命延长 3 倍以上。
适用于新建超算中心与高密度部署场景,PUE 可低至 1.07,能效优势更明显。
传统风冷单机柜功率上限约 20kW,而 AIDC 液冷方案可支持 300kW 以上,且制冷能耗占比与散热效率均显著改善。
AIDC 规范将 PUE≤1.15 作为强制性准入标准,同时将碳排放控制、余热利用和独立验证机制纳入统一要求。
| 政策 / 地区 | PUE要求 | 说明 |
|---|---|---|
| 国家《数据中心绿色低碳发展专项行动计划》 | ≤1.25(2025年底) | 大型数据中心 |
| AIDC规范 | ≤1.15 | 智算数据中心 |
| 北京 / 上海差别电价 | 超标加收 | 倒逼技术升级 |
| 指标 | 要求 |
|---|---|
| 可再生能源利用率 | ≥30% |
| 储能系统响应延迟 | ≤50ms |
| AI训练碳排放强度 | ≤0.2kgCO₂/小时 |
案例:上海某试点智算中心采用 AIDC 新标准设计后,每处理 1PFlops 算力可减少 40% 能耗,年节电达 1200 万度,对应减少 6800 吨碳排放。
AIDC 基础设施规范与传统数据中心国家标准形成互补体系,在单柜功率、液冷配置、建设周期和设计理念上体现出明显差异。
| 标准号 | 标准名称 | 关联说明 |
|---|---|---|
| GB/T 32910.3-2016 | 数据中心 资源利用 第3部分 | 数据中心能效相关基础标准 |
| GB/T 22239-2019 | 信息安全技术 网络安全等级保护基本要求 | 安全合规基础要求 |
| GB 50174-2017 | 数据中心设计规范 | 传统数据中心设计规范 |
| YD/T 3005-2016 | 数据中心建设设计规范(通信行业) | 通信行业数据中心规范 |
| 对比维度 | 传统数据中心 | AIDC基础设施规范 |
|---|---|---|
| 单机柜功率 | 3-10kW | 50-300kW |
| 制冷方式 | 风冷为主 | 液冷强制配置 |
| PUE目标 | 1.8-3.0 / 1.2-1.4 | ≤1.15 |
| 建设周期 | 6-8个月 | 3个月(标准化设计) |
| 设计理念 | 渐进式、局部改良 | 全局重构、解耦设计 |
| 适用负载 | 稳态负载 | 高波动、高密度、快迭代 |
该规范适用于智算中心建设单位、传统数据中心改造项目、设备供应商、设计施工单位以及运维服务商,实施重点在于前期顶格规划与后期持续优化。
《AIDC基础设施规范》的意义在于将 AIDC 产业从单点技术突破带向规范引领的体系化发展阶段,并持续瞄准未来两到四年的技术演进。
| 术语 | 英文 | 定义 |
|---|---|---|
| AIDC | Artificial Intelligence Data Center | 人工智能数据中心 |
| PUE | Power Usage Effectiveness | 电源使用效率 |
| GCC | Global Computing Consortium | 全球计算联盟 |
| 冷板式液冷 | Cold Plate Liquid Cooling | 通过冷板接触发热部件的液冷方式 |
| 浸没式液冷 | Immersion Liquid Cooling | 将设备完全浸入冷却液的散热方式 |
| 解耦设计 | Decoupling Design | 机房基础设施与设备分离设计理念 |
本报告基于公开资料整理,供参考学习。如需获取规范原文,请访问全球计算联盟(GCC)官方网站。