Amazon Web Services está rediseñando sus centros de datos desde cero, una tarea masiva para satisfacer las demandas de energía de la IA de próxima generación.
Amazon está reformando la construcción y el diseño de sus centros de datos con un proyecto interno con el nombre en código "Titus", parte de un plan de gastos de capital récord de 200.000 millones de dólares este año destinado a manejar una nueva generación de hardware de inteligencia artificial de alto consumo energético de empresas como Nvidia. La iniciativa señala un cambio fundamental en la forma en que el mayor proveedor de la nube del mundo equipa sus instalaciones para la era de la IA, centrándose en la velocidad, la eficiencia y las tecnologías de enfriamiento avanzadas.
"Estamos viendo a Amazon salir realmente a la carrera con nuevos diseños optimizados para un despliegue más rápido", dijo Reyk Knuhtsen, analista de SemiAnalysis, a Business Insider, calificando el impulso como un "empuje estratégico importante".
La iniciativa Titus tiene como objetivo reducir el cronograma de construcción a operación de los centros de datos a menos de 35 semanas y aumenta la capacidad del sitio en un 17% a 68 megavatios, según documentos internos. Una característica clave es el despliegue más amplio de los sistemas de refrigeración líquida patentados de AWS "In-Row Heat Exchanger", diseñados para reducir el consumo de energía de refrigeración en un 15% y soportar el próximo hardware como los sistemas de servidores GB200 y Vera Rubin de Nvidia.
Este gasto masivo en infraestructura está diseñado para defender el dominio de la computación en la nube de AWS frente a sus rivales y reducir los costos operativos a largo plazo. El cambio a la refrigeración líquida interna y las arquitecturas de energía flexibles busca evitar la "energía varada" (unused power) y reducir el costo por kilovatio en un 10%, impactando directamente en la rentabilidad de proporcionar servicios de IA a escala.
El fin de la refrigeración por aire
El auge de la IA está obligando a un ajuste de cuentas con las limitaciones físicas de los centros de datos tradicionales. A medida que las GPU de Nvidia y otros fabricantes de chips se vuelven exponencialmente más potentes, también generan un calor inmenso que los sistemas convencionales de refrigeración por aire luchan por disipar. Los documentos de Titus muestran que AWS se está preparando para un futuro donde la refrigeración líquida no sea una solución de nicho sino una necesidad convencional. El sistema "In-Row Heat Exchanger" (IRHX) es central en esta estrategia, permitiendo a AWS enfriar racks con mayor densidad de potencia sin una reforma completa de las instalaciones. Esto los prepara para las próximas plataformas de GPU Vera Rubin de Nvidia, que se espera que aumenten drásticamente el consumo de energía.
Construir más rápido, construir de forma más inteligente
Más allá de la refrigeración, el objetivo central de Titus es la velocidad. AWS tiene como objetivo acortar el plazo desde el inicio de la estructura hasta una sala de servidores totalmente operativa a menos de 35 semanas, una aceleración significativa en comparación con los estándares de la industria. Esto permite a la empresa responder más rápidamente a la creciente demanda de capacidad de entrenamiento e inferencia de IA. El proyecto también se centra en crear instalaciones más adaptables. Al diseñar arquitecturas de energía flexibles y reducir la "energía varada", o capacidad eléctrica no utilizada, AWS puede garantizar que sus costosos centros de datos se utilicen de manera más eficiente, acomodando una gama más amplia de cargas de trabajo, desde tareas menos intensivas hasta el entrenamiento de modelos de IA más exigentes.
La alternativa offshore
Mientras Amazon redobla sus esfuerzos en el rediseño de sus instalaciones terrestres, los requisitos de energía extrema de la IA están empujando a algunos a explorar conceptos más radicales. Start-ups como Panthalassa están desarrollando centros de datos flotantes autónomos en el océano, alimentados por energía de las olas. Del mismo modo, Aikido Technologies está integrando centros de datos con plataformas eólicas marinas. Estos esfuerzos, junto con experimentos pasados como el Proyecto Natick de Microsoft, resaltan los inmensos desafíos de ingeniería que enfrenta la industria. Por ahora, sin embargo, Amazon apuesta a que su inversión masiva de capital y sus innovaciones en el diseño y la eficiencia de los centros de datos en tierra serán el camino más viable para "preparar para el futuro" su infraestructura para la próxima ola de IA.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.