- 亚马逊计划今年创纪录地投入 2000 亿美元资本支出,其中大部分将用于 AI 数据中心。
- 内部“Titus”项目旨在将数据中心建设周期缩短至 35 周以内,并将站点容量提升至 68 兆瓦。
- AWS 正在部署先进的液冷系统以支持英伟达高功耗的新一代 GPU,目标是降低 15% 的冷却能耗。

亚马逊云科技 (AWS) 正在从底层重新设计其数据中心,这是一项规模宏大的工程,旨在满足下一代人工智能的电力需求。
亚马逊正在通过一个代号为“Titus”的内部项目,彻底改革其数据中心的建设和设计。这是今年创纪录的 2000 亿美元资本支出计划的一部分,旨在处理来自英伟达等公司的新一代高功耗人工智能硬件。此举标志着这家全球最大的云供应商在为 AI 时代配置设施方面发生了根本性转变,重点转向速度、效率和先进的冷却技术。
SemiAnalysis 的分析师 Reyk Knuhtsen 告诉《商业内幕》(Business Insider):“我们看到亚马逊确实在全力以赴,推出了针对更快部署而优化的新设计,”他称这一举措是“一项重要的战略推进”。
内部文件显示,Titus 计划旨在将数据中心从动工到运营的时间缩短至 35 周以内,并将站点容量提升 17% 至 68 兆瓦。其中一个关键特征是更广泛地推出 AWS 自研的“行间热交换器”(In-Row Heat Exchanger) 液冷系统,该系统旨在减少 15% 的冷却能耗,并支持即将推出的硬件,如英伟达的 GB200 和 Vera Rubin 服务器系统。
这笔巨额基础设施投入旨在捍卫 AWS 在云计算领域的统治地位,对抗竞争对手并降低长期运营成本。转向自研液冷技术和灵活的电力架构旨在避免“搁置电力”并降低每千瓦成本 10%,这将直接影响大规模提供 AI 服务的盈利能力。
AI 热潮正迫使人们重新审视传统数据中心的物理限制。随着英伟达和其他芯片制造商生产的 GPU 性能呈指数级增长,它们也会产生巨大的热量,传统的气冷系统难以将其耗散。Titus 文件显示,AWS 正在为一个液冷不再是小众方案而是主流必需品的未来做准备。其“行间热交换器”(IRHX) 系统是这一战略的核心,允许 AWS 在不彻底改造整个设施的情况下,冷却功率密度更高的机架。这为英伟达即将推出的 Vera Rubin GPU 平台做好了准备,预计该平台的功耗将大幅提升。
除了冷却,Titus 的核心目标是速度。AWS 旨在将从“外壳启动”到服务器机房完全投入运营的时间缩短至 35 周以内,这与行业标准相比是一个显著的加速。这使得公司能够更迅速地响应对 AI 训练和推理能力的激增需求。该项目还专注于创建更具适应性的设施。通过设计灵活的电力架构并减少“搁置电力”(即未使用的电力容量),AWS 可以确保其昂贵的数据中心得到更高效的利用,从而适应从低强度任务到最苛刻的 AI 模型训练等更广泛的工作负载。
在亚马逊加倍投入重新设计其陆基设施的同时,AI 极端极高的电力需求正促使一些人探索更激进的概念。像 Panthalassa 这样的初创公司正在开发由波浪能驱动的海上自主浮动数据中心。同样,Aikido Technologies 正在将数据中心与离岸风电平台相结合。这些努力,连同微软过去类似 Project Natick 的实验,都突显了该行业面临的巨大工程挑战。然而目前,亚马逊押注其巨额资本投入以及在陆上数据中心设计和效率方面的创新,将是其基础设施在即将到来的 AI 浪潮中实现“未来保障”的最可行路径。
本文仅供参考,不构成投资建议。