La memoria de gran ancho de banda de Micron Technology está agotada para los próximos dos años, lo que indica una escasez de suministro sin precedentes en el mercado de componentes críticos de IA.
La memoria de gran ancho de banda de Micron Technology está agotada para los próximos dos años, lo que indica una escasez de suministro sin precedentes en el mercado de componentes críticos de IA.

Las acciones de Micron Technology Inc. subieron más de un 6% hasta los 790 dólares después de que la empresa confirmara que su suministro de memoria HBM4 de próxima generación está totalmente asignado hasta 2026, como resultado directo de la voraz demanda de los centros de datos de inteligencia artificial. El ascenso de la acción extiende una notable racha alcista desde un mínimo de 64 dólares en abril del año pasado, consolidando su posición como beneficiario clave del auge de la infraestructura de IA.
"El hecho de que la HBM4 esté agotada con dos años de antelación es un poderoso indicador del actual ciclo de demanda impulsado por la IA", afirmó Lee Kyoung-min, analista de Daishin Securities, al comentar el repunte general del mercado de chips. "Los inversores están premiando a las empresas con una exposición clara a la cadena de suministro de IA".
El aumento está directamente relacionado con el mercado de la Memoria de Gran Ancho de Banda (HBM), un tipo de DRAM donde los chips se apilan verticalmente para crear un conducto de datos más amplio y rápido. Este diseño es esencial para alimentar procesadores de IA ávidos de datos como los de Nvidia. Micron, junto con sus rivales surcoreanos SK Hynix y Samsung Electronics, son los tres productores dominantes de HBM. Todo el suministro de HBM4 de Micron, su producto de próxima generación, ya está comprometido con clientes hasta 2026.
Esta limitación de suministro resalta un cuello de botella crítico en el despliegue de la IA, lo que podría limitar el ritmo de despliegue de GPU por parte de gigantes como Nvidia, AMD y los principales proveedores de la nube. Con la HBM agotada con tanta antelación, los inversores se centran ahora en si los fabricantes de chips pueden acelerar los complejos plazos de producción. El éxito podría significar capturar miles de millones en ingresos, mientras que cualquier retraso podría ceder terreno a los competidores en un mercado donde todos los jugadores importantes corren para ampliar su capacidad.
La intensa demanda de chips de memoria para IA ha provocado un repunte en todo el sector de los semiconductores. El mismo día del salto de Micron, su principal rival SK Hynix se disparó un 11,51% hasta los 1,88 millones de wones, mientras que Samsung Electronics subió un 6,33%, según datos de la Bolsa de Corea. Estos movimientos ayudaron a impulsar el índice KOSPI de Corea del Sur a un máximo histórico, subrayando el impacto global del superciclo de la memoria de IA.
Esta carrera a tres bandas entre Micron, SK Hynix y Samsung definirá el ritmo y el coste del desarrollo de la IA. Mientras que Micron ha asegurado su línea de producción para los próximos dos años, SK Hynix también ha sido agresiva, posicionándose como un proveedor clave para Nvidia. La competencia no se trata solo de volumen, sino también de liderazgo tecnológico, ya que cada nueva generación de HBM ofrece saltos significativos en el ancho de banda de la memoria y la eficiencia energética, métricas críticas para los operadores de centros de datos.
El hecho de que se agote un producto que aún no ha alcanzado la producción en masa es un evento muy inusual que subraya la desesperación de los fabricantes de hardware de IA por asegurar sus cadenas de suministro. La HBM es significativamente más compleja de fabricar que la DRAM convencional, e implica un proceso llamado perforación de vías a través del silicio (TSV) y técnicas avanzadas de empaquetado a menudo manejadas por fundiciones como TSMC. Esta complejidad limita la velocidad a la que se puede poner en marcha nueva capacidad.
Para clientes como Nvidia, un suministro garantizado de HBM no es negociable. El rendimiento de sus GPU de próxima generación está directamente ligado a la velocidad y disponibilidad de la memoria con la que se emparejan. La escasez de HBM se ha convertido en el nuevo factor limitante para el crecimiento de la IA, desplazando el cuello de botella de las propias GPU hacia la memoria que las alimenta. La valoración de Micron depende ahora en gran medida de su capacidad para ejecutar esta expansión de capacidad de HBM a la perfección.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.