
【省流】作者基于行业访谈和数据,估算1GW AI数据中心采用GB200/NVL72配置的总资本支出约350亿美元/吉瓦,低于英伟达的500-600亿美元预测,可能因后者考虑未来周期。GPU占比39%,英伟达毛利占29%;网络设备13%,存储仅1.4%。上游如晶圆代工厂受益2.5%-3%,ASIC配置下占比更高。机电设备分散,热管理向液冷倾斜;运营中IT硬件折旧占比更高,电费约13亿美元/年,人力微小。瓶颈企业如电力供应商将获超额收益。
【正文】作者通过专家访谈及第三方数据,构建AI数据中心机架成本模型。以GB200/NVL72配置为例,标准机架GPU等IT硬件成本约340万美元,加上250万美元物理基础设施,总计590万美元/机架,即每吉瓦350亿美元。此数字低于英伟达财报预测,但与博通、AMD的150-200亿美元规模相近,作者认为英伟达或展望未来更高成本周期。
资本支出中,GPU主导39%,英伟达毛利29%,鉴于70%毛利率,凸显其BOM核心地位。即使转向50%毛利率ASIC,加速模块成本降至120万美元,总支出节省19%,ASIC仍占28%。网络设备占13%,交换机等分散;存储1.4%,标准机架2PB容量仅2万美元,强调电源效率优先于存储价格。Meta推QLC闪存成本稍高,但提升效率,在电力紧缺时更合理。
上游供应商受益明显:GB200下,晶圆代工厂占2.5%-3%(每吉瓦11亿美元),高带宽内存3%-3.5%,设备3%-4%。ASIC配置因芯片采购增多,占比更高。机电支出中,发电机6%、UPS 4%、变压器5%,热管理4%向液冷倾斜,预计Rubin Ultra机型电源价值升7-8倍。
运营成本中,IT硬件折旧短(6年),占比高于账面;1GW年电费13亿美元(0.15美元/千瓦时),20GW仅需8-10人,年薪3-8万美元。未来,电力瓶颈利好燃气轮机OEM,超大规模企业探索小型反应堆;关键供应商如台积电可匹配供需获益。
#人工智能数据中心 #成本估算 GB200/NVL72 #GPU占比 #英伟达毛利
【正文】作者通过专家访谈及第三方数据,构建AI数据中心机架成本模型。以GB200/NVL72配置为例,标准机架GPU等IT硬件成本约340万美元,加上250万美元物理基础设施,总计590万美元/机架,即每吉瓦350亿美元。此数字低于英伟达财报预测,但与博通、AMD的150-200亿美元规模相近,作者认为英伟达或展望未来更高成本周期。
资本支出中,GPU主导39%,英伟达毛利29%,鉴于70%毛利率,凸显其BOM核心地位。即使转向50%毛利率ASIC,加速模块成本降至120万美元,总支出节省19%,ASIC仍占28%。网络设备占13%,交换机等分散;存储1.4%,标准机架2PB容量仅2万美元,强调电源效率优先于存储价格。Meta推QLC闪存成本稍高,但提升效率,在电力紧缺时更合理。
上游供应商受益明显:GB200下,晶圆代工厂占2.5%-3%(每吉瓦11亿美元),高带宽内存3%-3.5%,设备3%-4%。ASIC配置因芯片采购增多,占比更高。机电支出中,发电机6%、UPS 4%、变压器5%,热管理4%向液冷倾斜,预计Rubin Ultra机型电源价值升7-8倍。
运营成本中,IT硬件折旧短(6年),占比高于账面;1GW年电费13亿美元(0.15美元/千瓦时),20GW仅需8-10人,年薪3-8万美元。未来,电力瓶颈利好燃气轮机OEM,超大规模企业探索小型反应堆;关键供应商如台积电可匹配供需获益。
#人工智能数据中心 #成本估算 GB200/NVL72 #GPU占比 #英伟达毛利
