Autor: Godot
El almacenamiento de IA se puede dividir en seis capas,
1) SRAM en chip
2) HBM
3) DRAM de la placa base
4) Capa de agrupación CXL
5) SSD de nivel empresarial
6) Almacenamiento en la nube NAS y de objetos
Esta jerarquía se divide según la ubicación del almacenamiento: cuanto más abajo, más lejos está de la unidad de cálculo y mayor es la capacidad de almacenamiento.
En 2025, el tamaño total de estas seis capas (se excluye el valor incrustado del SRAM en el chip de computación) es de aproximadamente 229.000 millones de dólares, de los cuales DRAM representa la mitad, HBM el 15% y SSD el 11%.
En cuanto a los beneficios, cada capa está extremadamente concentrada y es oligopolística, las tres primeras generalmente superan el 90% de cuota de mercado.
Estos grupos de beneficios se pueden dividir en tres categorías,
1) Grupo oligopolístico de alto margen bruto en la capa de silicio (HBM, SRAM embebido, SSD QLC)
2) Grupo emergente de alto margen bruto en la capa de interconexión (CXL)
3) Grupo de interés compuesto a escala en la capa de servicio (NAS, almacenamiento de objetos en la nube)
Las tres categorías tienen diferentes características, tasas de crecimiento y barreras de defensa.
¿Por qué el almacenamiento se organiza en capas?
Porque en los chips de CPU (que controlan) y GPU (que calculan), solo hay memoria caché temporal, es decir, caché SRAM en el chip. Este espacio de caché es demasiado pequeño, solo puede almacenar algunos parámetros temporales, no es suficiente para modelos grandes.
Fuera de estos dos chips, es necesario conectar memoria externa más grande para almacenar el modelo grande y también el contexto para la inferencia.
La computación es rápida, el mayor problema es la latencia y el consumo de energía al mover datos entre las diferentes capas de almacenamiento.
Por lo tanto, actualmente hay tres direcciones,
1) Apilar HBM, colocar la memoria junto a la GPU, acortando la distancia de movimiento.
2) CXL agrupa la memoria a nivel de rack, compartiendo capacidad.
3) Soldar la computación y el almacenamiento en la misma oblea, unificación de memoria y computación.
Estas tres direcciones determinan la forma del grupo de beneficios de cada capa en los próximos cinco años.
A continuación, se detallan las capas específicas,
L0 SRAM en chip: El grupo de beneficios exclusivo de TSMC
SRAM (Static Random-access Memory, memoria estática de acceso aleatorio) es la memoria caché interna de la CPU/GPU, incrustada en cada chip y no se comercializa por separado.
El mercado independiente de obleas de SRAM solo tiene un tamaño de 1000-1700 millones de dólares. Los líderes son Infineon (aproximadamente 15%), Renesas (aproximadamente 13%), ISSI (aproximadamente 10%). Es un mercado pequeño.
El grupo de beneficios de esta parte está en TSMC. Cada generación de chips de IA, para meter más SRAM, debe comprar más obleas.
Y más del 70% de las obleas de procesos avanzados a nivel mundial están en manos de TSMC. El área de SRAM de cada H100, B200, TPU v5, etc., finalmente se convierte en ingresos para TSMC.
L1 HBM: El grupo de beneficios más grande de la era de la IA
HBM (High Bandwidth Memory, memoria de alto ancho de banda) es memoria DRAM (Dynamic Random-access Memory, memoria dinámica de acceso aleatorio) apilada verticalmente mediante el proceso TSV (Through-Silicon Via) y luego adherida junto a la GPU mediante el empaquetado CoWoS.
HBM casi por sí solo determina el tamaño del modelo que puede ejecutar un acelerador de IA. SK Hynix, Micron y Samsung tienen casi el 100% de la cuota de mercado.
Hasta el primer trimestre de 2026, las últimas cuotas de mercado son: SK Hynix 57% a 62%, Samsung 22%, Micron 21%. SK Hynix ha obtenido una gran parte de las compras de empresas como NVIDIA, siendo el proveedor dominante actual.
La conferencia de resultados del primer trimestre del año fiscal 2026 de Micron mencionó que el TAM (Mercado Total Potencial) de HBM crecerá a una tasa de crecimiento anual compuesto (CAGR) de aproximadamente 40%, pasando de unos 35.000 millones de dólares en 2025 a 100.000 millones en 2028, alcanzando los 100.000 millones dos años antes de lo previsto anteriormente.
La ventaja central de HBM radica en su extremadamente alto margen de beneficio. En el primer trimestre de 2026, el margen operativo de SK Hynix alcanzó un récord del 72%.
Las razones del alto beneficio,
1) El proceso de fabricación TSV sacrifica parte de la capacidad de producción de DRAM tradicional, manteniendo a HBM en estado de escasez de oferta;
2) Es difícil mejorar el rendimiento del empaquetado avanzado; la caída en la cuota de Samsung del 40% al 22% también se vio afectada por esto;
3) Los principales proveedores han sido cautelosos en la expansión de capacidad, y lograron un aumento del precio medio de venta (ASP) del DRAM de más del 60% en el primer trimestre de 2026, mostrando una clara posición de mercado del vendedor.
Entre los tres gigantes, SK Hynix, impulsado por la fuerte demanda de HBM, alcanzó un beneficio operativo anual de 47,21 billones de wones en 2025, superando por primera vez en la historia a Samsung Electronics. En el primer trimestre de 2026, con un margen operativo del 72%, incluso superó los niveles de rentabilidad de TSMC (58,1%) y NVIDIA (65%).
Micron tiene expectativas de crecimiento muy altas, Bank of America (BofA) aumentó significativamente su precio objetivo a 950 dólares en mayo de 2026. Samsung, con la producción en masa continua de HBM4, tiene el mayor espacio para recuperar cuota de mercado.
L2 DRAM de la placa base
Esta capa es a la que comúnmente nos referimos como módulos de memoria RAM.
El DRAM de placa base incluye productos de memoria convencionales como DDR5, LPDDR, GDDR, MR-DIMM, etc. Actualmente es la parte con mayor participación en ventas en el sistema de almacenamiento de IA. En 2025, el tamaño total del mercado global de DRAM alcanzó aproximadamente 121.830 millones de dólares.
Samsung, SK Hynix y Micron todavía ocupan la mayor parte del mercado. Según los últimos datos del cuarto trimestre de 2025, Samsung ocupa el primer lugar con una participación de mercado del 36,6%, SK Hynix ocupa el segundo lugar con un 32,9% y Micron ocupa el tercer lugar con un 22,9%.
Actualmente, la capacidad se está desviando hacia el HBM más rentable, lo que mantiene a la memoria con altos márgenes y poder de fijación de precios. Aunque el margen de beneficio de un solo producto de DRAM convencional de placa base no es tan alto como el de HBM, su tamaño de mercado general es el más grande.
L3 Capa de agrupación CXL
CXL (Compute Express Link) permite "agrupar" la DRAM desde la placa base de un solo servidor a todo un rack.
Después de CXL 3.x, en el futuro, toda la memoria en un gabinete puede ser compartida y programada por múltiples GPU, asignándose según la demanda. Resuelve el problema de que la memoria caché KV, las bases de datos vectoriales y los índices RAG no caben ni se pueden mover fácilmente durante la inferencia de IA.
Los módulos de memoria CXL fueron de solo 1.600 millones de dólares en 2024, y se proyecta que alcancen los 23.700 millones en 2033. Parece que sigue siendo un panorama oligopólico de Samsung, SK Hynix y Micron.
En esta capa, Astera Labs fabrica retemporizadores (Retimer) y controladores de memoria inteligente entre CXL y PCIe, ocupando aproximadamente el 55% de este submercado. Sus últimos ingresos trimestrales fueron de 308 millones de dólares, un aumento interanual del +93%, margen bruto no GAAP del 76,4%, beneficio neto +85% interanual. Puede decirse que es bastante lucrativo.
L4 SSD de nivel empresarial: El mayor beneficiario de la era de la inferencia
Los SSD empresariales NVMe son el campo de batalla principal para los checkpoints de entrenamiento de IA, índices RAG, descarga de caché KV y almacenamiento en caché de pesos del modelo. Los SSD QLC de alta capacidad ya han expulsado completamente a los HDD de los lagos de datos de IA.
El mercado de SSD empresariales en 2025 fue de aproximadamente 26.100 millones de dólares, con una CAGR del 24%, se proyecta que alcance los 76.000 millones en 2030.
El panorama, efectivamente, sigue dominado por los tres gigantes.
Participación de mercado calculada por ingresos del cuarto trimestre de 2025: Samsung 36,9%, SK Hynix (incluyendo Solidigm) 32,9%, Micron 14,0%, Kioxia 11,7%, SanDisk 4,4%. Los primeros cinco suman aproximadamente el 90%.
El mayor cambio en esta capa es la explosión de los SSD QLC en escenarios de inferencia de IA. Solidigm, subsidiaria de SK Hynix, y Kioxia ya han fabricado productos de un solo disco con capacidad de 122 TB. La memoria caché KV y los índices RAG de la inferencia de IA se están trasladando de HBM a SSD.
Desde la perspectiva del grupo de beneficios, los SSD empresariales no tienen un margen bruto tan extremo como el HBM, pero disfrutan del doble impulso de la capacidad y la expansión de la inferencia.
SK Hynix y Kioxia son opciones relativamente puras. Samsung y SK Hynix disfrutan simultáneamente del triple beneficio de HBM + DRAM + NAND, siendo empresas de plataforma de almacenamiento de IA más integrales.
L5 NAS y almacenamiento de objetos en la nube: El grupo de intereses compuestos de la gravedad de los datos
NAS y el almacenamiento de objetos en la nube son la capa más externa para los lagos de datos de IA, corpus de entrenamiento, copias de seguridad y archivos, y colaboración entre equipos. En 2025, NAS fue de aproximadamente 39.600 millones de dólares (CAGR 17%), el almacenamiento de objetos en la nube fue de aproximadamente 9.100 millones (CAGR 16%).
Los principales fabricantes de almacenamiento de archivos empresariales son NetApp, Dell, HPE, Huawei; para PYMEs son Synology, QNAP. Para el almacenamiento de objetos en la nube, según la cuota de IaaS, AWS aproximadamente 31-32%, Azure aproximadamente 23-24%, Google Cloud aproximadamente 11-12%, los tres suman aproximadamente 65-70%.
El beneficio en esta capa proviene principalmente del alojamiento a largo plazo + salida de datos de la red + bloqueo del ecosistema.
Para resumir,
1) DRAM tiene el mayor tamaño pero el margen bruto más bajo 30-40%; HBM tiene solo un tercio del tamaño de DRAM, pero su margen bruto se duplica 60%+; los retemporizadores CXL tienen el tamaño más pequeño pero el margen bruto más alto 76%+. Cuanto más cerca de la capacidad de cómputo está la capa, más escasa y lucrativa es.
2) El incremento en los grupos de beneficios proviene principalmente de tres áreas: HBM (CAGR 28%), SSD empresariales (CAGR 24%), agrupación CXL (CAGR 37%).
3) Cada capa tiene diferentes barreras empresariales: HBM depende de barreras tecnológicas, TSV, CoWoS, mejora del rendimiento; las clases CXL dependen de IP y certificación, cadena de suministro única de retemporizadores; las clases de servicio dependen de los costos de cambio.







