Entendiendo en un solo artículo los grupos de beneficio y el panorama industrial de la jerarquía de almacenamiento de IA

marsbitPublicado a 2026-05-14Actualizado a 2026-05-14

Resumen

Resumen de la jerarquía de almacenamiento de IA y sus cuencos de beneficios La arquitectura de almacenamiento para IA se estructura en seis niveles, desde el más cercano a la unidad de cálculo hacia afuera: 1) SRAM en el chip, 2) HBM, 3) DRAM de placa base, 4) Capa de agrupación CXL, 5) SSD empresarial, 6) NAS y almacenamiento de objetos en la nube. El tamaño total del mercado en 2025 fue de aproximadamente 229.000 millones de dólares, dominado por DRAM (50%), HBM (15%) y SSD (11%). Los cuencos de beneficios se clasifican en tres tipos: - **Grupo oligopólico de alto margen (capa de silicio):** HBM, SRAM embebida y SSD QLC, caracterizados por alta concentración y rentabilidad. - **Grupo emergente de alto margen (capa de interconexión):** Tecnología CXL, un mercado en rápido crecimiento. - **Grupo de intereses compuestos a escala (capa de servicio):** NAS y almacenamiento en la nube, con rentabilidad basada en economías de escala y costos de cambio. **Análisis por capa:** - **SRAM (L0):** Su valor se integra en las obleas de TSMC. - **HBM (L1):** El mayor cuenco de beneficios, con un crecimiento anual compuesto (CAGR) del 40% y márgenes operativos que superan el 70% para líderes como SK Hynix. - **DRAM de placa base (L2):** El segmento más grande en volumen, pero con márgenes menores (~30-40%). - **CXL (L3):** Mercado en auge (CAGR 37%), con componentes como los retimers de Astera Labs logrando márgenes brutos superiores al 76%. - **SSD Empresarial (L4):** Se beneficia de la...

Autor: Godot

El almacenamiento de IA se puede dividir en seis capas,

1) SRAM en chip

2) HBM

3) DRAM de la placa base

4) Capa de agrupación CXL

5) SSD de nivel empresarial

6) Almacenamiento en la nube NAS y de objetos

Esta jerarquía se divide según la ubicación del almacenamiento: cuanto más abajo, más lejos está de la unidad de cálculo y mayor es la capacidad de almacenamiento.

En 2025, el tamaño total de estas seis capas (se excluye el valor incrustado del SRAM en el chip de computación) es de aproximadamente 229.000 millones de dólares, de los cuales DRAM representa la mitad, HBM el 15% y SSD el 11%.

En cuanto a los beneficios, cada capa está extremadamente concentrada y es oligopolística, las tres primeras generalmente superan el 90% de cuota de mercado.

Estos grupos de beneficios se pueden dividir en tres categorías,

1) Grupo oligopolístico de alto margen bruto en la capa de silicio (HBM, SRAM embebido, SSD QLC)

2) Grupo emergente de alto margen bruto en la capa de interconexión (CXL)

3) Grupo de interés compuesto a escala en la capa de servicio (NAS, almacenamiento de objetos en la nube)

Las tres categorías tienen diferentes características, tasas de crecimiento y barreras de defensa.

¿Por qué el almacenamiento se organiza en capas?

Porque en los chips de CPU (que controlan) y GPU (que calculan), solo hay memoria caché temporal, es decir, caché SRAM en el chip. Este espacio de caché es demasiado pequeño, solo puede almacenar algunos parámetros temporales, no es suficiente para modelos grandes.

Fuera de estos dos chips, es necesario conectar memoria externa más grande para almacenar el modelo grande y también el contexto para la inferencia.

La computación es rápida, el mayor problema es la latencia y el consumo de energía al mover datos entre las diferentes capas de almacenamiento.

Por lo tanto, actualmente hay tres direcciones,

1) Apilar HBM, colocar la memoria junto a la GPU, acortando la distancia de movimiento.

2) CXL agrupa la memoria a nivel de rack, compartiendo capacidad.

3) Soldar la computación y el almacenamiento en la misma oblea, unificación de memoria y computación.

Estas tres direcciones determinan la forma del grupo de beneficios de cada capa en los próximos cinco años.

A continuación, se detallan las capas específicas,

L0 SRAM en chip: El grupo de beneficios exclusivo de TSMC

SRAM (Static Random-access Memory, memoria estática de acceso aleatorio) es la memoria caché interna de la CPU/GPU, incrustada en cada chip y no se comercializa por separado.

El mercado independiente de obleas de SRAM solo tiene un tamaño de 1000-1700 millones de dólares. Los líderes son Infineon (aproximadamente 15%), Renesas (aproximadamente 13%), ISSI (aproximadamente 10%). Es un mercado pequeño.

El grupo de beneficios de esta parte está en TSMC. Cada generación de chips de IA, para meter más SRAM, debe comprar más obleas.

Y más del 70% de las obleas de procesos avanzados a nivel mundial están en manos de TSMC. El área de SRAM de cada H100, B200, TPU v5, etc., finalmente se convierte en ingresos para TSMC.

L1 HBM: El grupo de beneficios más grande de la era de la IA

HBM (High Bandwidth Memory, memoria de alto ancho de banda) es memoria DRAM (Dynamic Random-access Memory, memoria dinámica de acceso aleatorio) apilada verticalmente mediante el proceso TSV (Through-Silicon Via) y luego adherida junto a la GPU mediante el empaquetado CoWoS.

HBM casi por sí solo determina el tamaño del modelo que puede ejecutar un acelerador de IA. SK Hynix, Micron y Samsung tienen casi el 100% de la cuota de mercado.

Hasta el primer trimestre de 2026, las últimas cuotas de mercado son: SK Hynix 57% a 62%, Samsung 22%, Micron 21%. SK Hynix ha obtenido una gran parte de las compras de empresas como NVIDIA, siendo el proveedor dominante actual.

La conferencia de resultados del primer trimestre del año fiscal 2026 de Micron mencionó que el TAM (Mercado Total Potencial) de HBM crecerá a una tasa de crecimiento anual compuesto (CAGR) de aproximadamente 40%, pasando de unos 35.000 millones de dólares en 2025 a 100.000 millones en 2028, alcanzando los 100.000 millones dos años antes de lo previsto anteriormente.

La ventaja central de HBM radica en su extremadamente alto margen de beneficio. En el primer trimestre de 2026, el margen operativo de SK Hynix alcanzó un récord del 72%.

Las razones del alto beneficio,

1) El proceso de fabricación TSV sacrifica parte de la capacidad de producción de DRAM tradicional, manteniendo a HBM en estado de escasez de oferta;

2) Es difícil mejorar el rendimiento del empaquetado avanzado; la caída en la cuota de Samsung del 40% al 22% también se vio afectada por esto;

3) Los principales proveedores han sido cautelosos en la expansión de capacidad, y lograron un aumento del precio medio de venta (ASP) del DRAM de más del 60% en el primer trimestre de 2026, mostrando una clara posición de mercado del vendedor.

Entre los tres gigantes, SK Hynix, impulsado por la fuerte demanda de HBM, alcanzó un beneficio operativo anual de 47,21 billones de wones en 2025, superando por primera vez en la historia a Samsung Electronics. En el primer trimestre de 2026, con un margen operativo del 72%, incluso superó los niveles de rentabilidad de TSMC (58,1%) y NVIDIA (65%).

Micron tiene expectativas de crecimiento muy altas, Bank of America (BofA) aumentó significativamente su precio objetivo a 950 dólares en mayo de 2026. Samsung, con la producción en masa continua de HBM4, tiene el mayor espacio para recuperar cuota de mercado.

L2 DRAM de la placa base

Esta capa es a la que comúnmente nos referimos como módulos de memoria RAM.

El DRAM de placa base incluye productos de memoria convencionales como DDR5, LPDDR, GDDR, MR-DIMM, etc. Actualmente es la parte con mayor participación en ventas en el sistema de almacenamiento de IA. En 2025, el tamaño total del mercado global de DRAM alcanzó aproximadamente 121.830 millones de dólares.

Samsung, SK Hynix y Micron todavía ocupan la mayor parte del mercado. Según los últimos datos del cuarto trimestre de 2025, Samsung ocupa el primer lugar con una participación de mercado del 36,6%, SK Hynix ocupa el segundo lugar con un 32,9% y Micron ocupa el tercer lugar con un 22,9%.

Actualmente, la capacidad se está desviando hacia el HBM más rentable, lo que mantiene a la memoria con altos márgenes y poder de fijación de precios. Aunque el margen de beneficio de un solo producto de DRAM convencional de placa base no es tan alto como el de HBM, su tamaño de mercado general es el más grande.

L3 Capa de agrupación CXL

CXL (Compute Express Link) permite "agrupar" la DRAM desde la placa base de un solo servidor a todo un rack.

Después de CXL 3.x, en el futuro, toda la memoria en un gabinete puede ser compartida y programada por múltiples GPU, asignándose según la demanda. Resuelve el problema de que la memoria caché KV, las bases de datos vectoriales y los índices RAG no caben ni se pueden mover fácilmente durante la inferencia de IA.

Los módulos de memoria CXL fueron de solo 1.600 millones de dólares en 2024, y se proyecta que alcancen los 23.700 millones en 2033. Parece que sigue siendo un panorama oligopólico de Samsung, SK Hynix y Micron.

En esta capa, Astera Labs fabrica retemporizadores (Retimer) y controladores de memoria inteligente entre CXL y PCIe, ocupando aproximadamente el 55% de este submercado. Sus últimos ingresos trimestrales fueron de 308 millones de dólares, un aumento interanual del +93%, margen bruto no GAAP del 76,4%, beneficio neto +85% interanual. Puede decirse que es bastante lucrativo.

L4 SSD de nivel empresarial: El mayor beneficiario de la era de la inferencia

Los SSD empresariales NVMe son el campo de batalla principal para los checkpoints de entrenamiento de IA, índices RAG, descarga de caché KV y almacenamiento en caché de pesos del modelo. Los SSD QLC de alta capacidad ya han expulsado completamente a los HDD de los lagos de datos de IA.

El mercado de SSD empresariales en 2025 fue de aproximadamente 26.100 millones de dólares, con una CAGR del 24%, se proyecta que alcance los 76.000 millones en 2030.

El panorama, efectivamente, sigue dominado por los tres gigantes.

Participación de mercado calculada por ingresos del cuarto trimestre de 2025: Samsung 36,9%, SK Hynix (incluyendo Solidigm) 32,9%, Micron 14,0%, Kioxia 11,7%, SanDisk 4,4%. Los primeros cinco suman aproximadamente el 90%.

El mayor cambio en esta capa es la explosión de los SSD QLC en escenarios de inferencia de IA. Solidigm, subsidiaria de SK Hynix, y Kioxia ya han fabricado productos de un solo disco con capacidad de 122 TB. La memoria caché KV y los índices RAG de la inferencia de IA se están trasladando de HBM a SSD.

Desde la perspectiva del grupo de beneficios, los SSD empresariales no tienen un margen bruto tan extremo como el HBM, pero disfrutan del doble impulso de la capacidad y la expansión de la inferencia.

SK Hynix y Kioxia son opciones relativamente puras. Samsung y SK Hynix disfrutan simultáneamente del triple beneficio de HBM + DRAM + NAND, siendo empresas de plataforma de almacenamiento de IA más integrales.

L5 NAS y almacenamiento de objetos en la nube: El grupo de intereses compuestos de la gravedad de los datos

NAS y el almacenamiento de objetos en la nube son la capa más externa para los lagos de datos de IA, corpus de entrenamiento, copias de seguridad y archivos, y colaboración entre equipos. En 2025, NAS fue de aproximadamente 39.600 millones de dólares (CAGR 17%), el almacenamiento de objetos en la nube fue de aproximadamente 9.100 millones (CAGR 16%).

Los principales fabricantes de almacenamiento de archivos empresariales son NetApp, Dell, HPE, Huawei; para PYMEs son Synology, QNAP. Para el almacenamiento de objetos en la nube, según la cuota de IaaS, AWS aproximadamente 31-32%, Azure aproximadamente 23-24%, Google Cloud aproximadamente 11-12%, los tres suman aproximadamente 65-70%.

El beneficio en esta capa proviene principalmente del alojamiento a largo plazo + salida de datos de la red + bloqueo del ecosistema.

Para resumir,

1) DRAM tiene el mayor tamaño pero el margen bruto más bajo 30-40%; HBM tiene solo un tercio del tamaño de DRAM, pero su margen bruto se duplica 60%+; los retemporizadores CXL tienen el tamaño más pequeño pero el margen bruto más alto 76%+. Cuanto más cerca de la capacidad de cómputo está la capa, más escasa y lucrativa es.

2) El incremento en los grupos de beneficios proviene principalmente de tres áreas: HBM (CAGR 28%), SSD empresariales (CAGR 24%), agrupación CXL (CAGR 37%).

3) Cada capa tiene diferentes barreras empresariales: HBM depende de barreras tecnológicas, TSV, CoWoS, mejora del rendimiento; las clases CXL dependen de IP y certificación, cadena de suministro única de retemporizadores; las clases de servicio dependen de los costos de cambio.

Preguntas relacionadas

Q¿Cuáles son las seis capas en las que se puede desglosar el almacenamiento de IA según el artículo?

ALas seis capas son: 1) SRAM en el chip, 2) HBM, 3) DRAM de la placa base, 4) Capa de agrupación CXL, 5) SSD empresarial, 6) NAS y almacenamiento de objetos en la nube. Se dividen según la ubicación, y cuanto más abajo, más lejos de la unidad de procesamiento y mayor capacidad de almacenamiento.

Q¿Cuál es el mercado potencial total estimado para HBM en 2028 y cuál es la tasa de crecimiento anual compuesta prevista?

ASe estima que el mercado potencial total (TAM) de HBM alcanzará los 100.000 millones de dólares en 2028, con una tasa de crecimiento anual compuesta (CAGR) del 40% desde 2025, lo que adelanta la proyección previa en dos años.

Q¿Qué tres actores dominan el mercado de HBM y cuáles fueron sus respectivas cuotas de mercado en el primer trimestre de 2026?

ALos tres actores dominantes son SK Hynix, Samsung y Micron. En el primer trimestre de 2026, sus cuotas de mercado fueron aproximadamente: SK Hynix 57%-62%, Samsung 22% y Micron 21%. SK Hynix lidera el mercado debido a grandes pedidos de empresas como NVIDIA.

Q¿Qué empresa posee un monopolio virtual en la capa de SRAM en el chip y por qué?

ATSMC (Taiwan Semiconductor Manufacturing Company) posee un cuasi monopolio en la capa de SRAM en el chip. Esto se debe a que más del 70% de las obleas de fabricación avanzadas a nivel mundial están en manos de TSMC, y el área de SRAM en cada chip de IA (como H100, B200) se traduce directamente en ingresos para TSMC.

Q¿Qué tres direcciones tecnológicas clave menciona el artículo para abordar la latencia y el consumo de energía en el movimiento de datos entre capas de almacenamiento?

ALas tres direcciones clave son: 1) Apilar HBM, acercando la memoria a la GPU para reducir la distancia de transferencia. 2) CXL para agrupar la memoria a nivel de rack y compartir capacidad. 3) Integrar computación y almacenamiento en la misma oblea (computación en memoria).

Lecturas Relacionadas

MY Group completa el despliegue de la primera acción de Web4.0 en el mercado, la SEC divulga oficialmente el anuncio Form 8-K

El 13 de mayo de 2026, la Comisión de Valores de EE. UU. (SEC) hizo pública la presentación del Formulario 8-K de MY Tech Group. El informe confirma el nombramiento del Sr. Zhang Dingwen como Director Ejecutivo (CEO) y director ejecutivo de la junta, marcando una nueva fase en la estrategia de capital global de la compañía. El Formulario 8-K, utilizado para divulgar eventos corporativos importantes, coincide con otros movimientos estratégicos en curso, como una actualización de la marca global, una optimización de la estructura corporativa y un cambio futuro de su símbolo bursátil (Ticker Symbol). Los analistas interpretan estos pasos como una señal de una aceleración en la estrategia de internacionalización y capitalización. MY Group está centrando la atención del mercado con su propuesta de ecosistema "Web4.0", que busca integrar capacidades centrales como: entrada de tráfico social, sistema de pagos global, infraestructura de cadena de bloques, ecosistema de intercambio de activos digitales y un sistema financiero inteligente con IA. El objetivo es fusionar la escala de usuarios de Web2 con la arquitectura de activos de Web3 y las capacidades financieras de IA. Con la finalización de la renovación de la gerencia, el inicio de la estrategia de marca global, el próximo cambio de ticker y el avance del concepto Web4.0, MY Group se posiciona como una empresa de plataforma tecnológica de próxima generación para observar de cerca en los mercados de capitales globales.

marsbitHace 5 hora(s)

MY Group completa el despliegue de la primera acción de Web4.0 en el mercado, la SEC divulga oficialmente el anuncio Form 8-K

marsbitHace 5 hora(s)

Trading

Spot
Futuros

Artículos destacados

Cómo comprar ONE

¡Bienvenido a HTX.com! Hemos hecho que comprar Harmony (ONE) sea simple y conveniente. Sigue nuestra guía paso a paso para iniciar tu viaje de criptos.Paso 1: crea tu cuenta HTXUtiliza tu correo electrónico o número de teléfono para registrarte y obtener una cuenta gratuita en HTX. Experimenta un proceso de registro sin complicaciones y desbloquea todas las funciones.Obtener mi cuentaPaso 2: ve a Comprar cripto y elige tu método de pagoTarjeta de crédito/débito: usa tu Visa o Mastercard para comprar Harmony (ONE) al instante.Saldo: utiliza fondos del saldo de tu cuenta HTX para tradear sin problemas.Terceros: hemos agregado métodos de pago populares como Google Pay y Apple Pay para mejorar la comodidad.P2P: tradear directamente con otros usuarios en HTX.Over-the-Counter (OTC): ofrecemos servicios personalizados y tipos de cambio competitivos para los traders.Paso 3: guarda tu Harmony (ONE)Después de comprar tu Harmony (ONE), guárdalo en tu cuenta HTX. Alternativamente, puedes enviarlo a otro lugar mediante transferencia blockchain o utilizarlo para tradear otras criptomonedas.Paso 4: tradear Harmony (ONE)Tradear fácilmente con Harmony (ONE) en HTX's mercado spot. Simplemente accede a tu cuenta, selecciona tu par de trading, ejecuta tus trades y monitorea en tiempo real. Ofrecemos una experiencia fácil de usar tanto para principiantes como para traders experimentados.

432 Vistas totalesPublicado en 2024.12.12Actualizado en 2025.03.21

Cómo comprar ONE

Discusiones

Bienvenido a la comunidad de HTX. Aquí puedes mantenerte informado sobre los últimos desarrollos de la plataforma y acceder a análisis profesionales del mercado. A continuación se presentan las opiniones de los usuarios sobre el precio de ONE (ONE).

活动图片