Un cambio estructural en la arquitectura de los servidores de IA prolongará el periodo de auge de la industria de la memoria, y los analistas pronostican ahora que el superciclo actual se extenderá hasta 2027.
Un cambio fundamental en la arquitectura de la inteligencia artificial está remodelando el mercado de chips de memoria de 170,000 millones de dólares, a medida que los principales fabricantes de CPU como Intel y AMD diseñan chips que requieren hasta 400 GB de RAM DDR5. Este aumento de la demanda, impulsado por el giro de la industria del entrenamiento de IA hacia la inferencia, está creando un desequilibrio entre la oferta y la demanda tan grave que los analistas predicen ahora que el actual "superciclo" de los semiconductores se extenderá de 2026 a 2027.
"Esto no es un repunte temporal impulsado por una única ola tecnológica. Es un cambio estructural en la demanda que está remodelando la economía de la NAND a largo plazo", escribió Michael Wu, presidente del fabricante de controladores NAND Phison Technology, en una columna reciente de Forbes, destacando un alejamiento de los históricos ciclos de auge y caída de la industria.
El mercado ya muestra signos de tensión. Según datos de firmas de valores coreanas, el precio al contado de los módulos DDR5 de 16 GB subió un 2.8% en abril, incluso mientras el precio de los módulos DDR4 de la generación anterior caía un 16%. Esta divergencia refleja un déficit de suministro en todo el mercado para la memoria de alto rendimiento estimado en alrededor del 10 por ciento de la demanda total. Las nuevas CPU para servidores, que cuentan con configuraciones de memoria de 300 a 400 GB, representan un salto masivo respecto a los 96-256 GB comunes en generaciones anteriores.
Este aumento dramático en el coste del hardware es una consecuencia directa del enfoque estratégico de la industria en la inferencia de IA, que genera ingresos a largo plazo mediante la ejecución de modelos. El cambio es una bendición para fabricantes de memoria como Samsung y SK Hynix, pero representa un desafío de costes significativo para sus mayores clientes: operadores de centros de datos como Meta y Microsoft. Estos gigantes tecnológicos se ven ahora obligados a firmar acuerdos de suministro plurianuales de miles de millones de dólares para asegurar su cadena de suministro de memoria, una estrategia confirmada por el productor de memoria Sandisk, que recientemente reveló más de 11,000 millones de dólares en tales acuerdos.
Del Entrenamiento a la Inferencia: Un Nuevo Paradigma de Memoria
El motor principal del aumento de la memoria es el papel evolutivo de la CPU en los sistemas de IA. En el pasado, los centros de datos se construían en torno a las GPU para el trabajo pesado del entrenamiento de IA, con un servidor típico que contaba con ocho GPU por cada CPU. Pero a medida que el enfoque se desplaza hacia la inferencia (la ejecución continua de modelos entrenados), la CPU se está convirtiendo en un "coordinador de IA", gestionando múltiples agentes de IA y sus resultados.
Este nuevo rol requiere una memoria de contexto masiva para rastrear y sintetizar los resultados de diferentes modelos de IA en tiempo real. Una sola conversación con un modelo de lenguaje extenso como Llama 3 puede generar más de 60 GB de datos que deben almacenarse y accederse, según un análisis de VAST Data. Como resultado, la relación CPU-GPU en los servidores de inferencia se está reduciendo de 1 a 8 hacia 1 a 4, y algunos expertos ven un camino hacia una configuración de 1 a 1.
La Lucha por el Suministro Hace que los Costes se Multipliquen por 10
Las implicaciones de hardware de este cambio son asombrosas. Según Willy Shih, profesor de la Harvard Business School, un servidor de IA típico puede requerir diez veces más memoria que un servidor de centro de datos convencional. Esto ha pillado a los fabricantes de memoria, que siguen operando con la cautelosa disciplina de inversión aprendida en anteriores quiebras del mercado, en una posición difícil. Construir nuevas plantas de fabricación es un esfuerzo de varios años y miles de millones de dólares, lo que significa que el suministro no puede aumentar a la velocidad de la demanda de IA.
El impacto financiero ya es visible en los informes de resultados de las Big Tech. Meta citó recientemente el aumento de los precios de la memoria como una razón principal para incrementar su previsión de gastos de capital. Microsoft también señaló los costes de los componentes para unos 25,000 millones de dólares de sus 190,000 millones de dólares proyectados en gastos de capital para el año natural 2026. Incluso Apple, que tiene un inmenso poder de negociación, ha advertido a los inversores que la escasez de memoria podría afectar a su negocio en el futuro.
Para los inversores, el superciclo prolongado apunta a una rentabilidad sostenida para fabricantes de memoria como Samsung, SK Hynix y Micron. Sin embargo, también señala una presión persistente sobre los márgenes para los proveedores de nube a hiperescala y otras empresas que están construyendo infraestructuras de IA, un viento en contra que ahora se espera que dure hasta bien entrado 2027.
Este artículo tiene únicamente fines informativos y no constituye asesoramiento de inversión.