Penulis: Godot
Penyimpanan AI dapat dibagi menjadi enam lapisan,
1) SRAM on-chip
2) HBM
3) DRAM motherboard
4) Lapisan poolisasi CXL
5) SSD kelas enterprise
6) NAS dan penyimpanan objek awan
Hierarki ini dibagi berdasarkan lokasi penyimpanan, semakin ke bawah semakin jauh dari unit komputasi, dan kapasitas penyimpanan semakin besar.
Pada tahun 2025, total pasar keenam lapisan ini (nilai tertanam SRAM pada chip komputasi perlu dikeluarkan) sekitar $229 miliar, dengan DRAM setengahnya, HBM 15%, dan SSD 11%.
Mengenai profitabilitas, setiap lapisan sangat terkonsentrasi dengan tingkat oligopoli yang ekstrem, tiga lapisan teratas umumnya memiliki pangsa pasar lebih dari 90%.
Kolam profit ini dapat dibagi menjadi tiga kategori,
1) Kolam oligopoli dengan margin kotor tinggi di lapisan wafer (HBM, SRAM tertanam, SSD QLC)
2) Kolam baru yang sedang berkembang dengan margin kotor tinggi di lapisan interkoneksi (CXL)
3) Kolam efek majemuk berskala di lapisan layanan (NAS, penyimpanan objek awan)
Sifat, tingkat pertumbuhan, dan parit pertahanan ketiga jenis kolam ini berbeda.
Mengapa Penyimpanan Berlapis?
Karena chip CPU yang bertanggung jawab atas kontrol dan chip GPU yang bertanggung jawab atas komputasi hanya memiliki cache sementara, yaitu cache SRAM on-chip. Ruang cache ini terlalu kecil, hanya bisa menampung parameter sementara, tidak cukup untuk model besar.
Di luar kedua chip ini, diperlukan memori eksternal yang lebih besar untuk menyimpan model besar dan konteks inferensi.
Komputasi sangat cepat, namun perpindahan data antar lapisan penyimpanan memiliki latensi dan konsumsi energi, inilah masalah terbesarnya.
Oleh karena itu, saat ini ada tiga arah,
1) Menumpuk HBM, menempatkan memori di samping GPU untuk memperpendek jarak perpindahan
2) CXL mem-pooling memori ke tingkat rak, berbagi kapasitas
3) Menyatukan komputasi dan penyimpanan pada wafer yang sama, komputasi dalam memori
Ketiga arah ini akan menentukan bentuk kolam profit setiap lapisan dalam lima tahun ke depan.
Berikut adalah penjelasan spesifik per lapisan,
L0 SRAM On-Chip: Kolam Profit Eksklusif TSMC
SRAM (Static Random-access Memory, penyimpanan akses acak statis) adalah cache internal CPU/GPU, tertanam di setiap chip, tidak diperdagangkan secara terpisah.
Pasar wafer SRAM mandiri hanya berukuran $10–17 miliar, dengan pemimpin pasar Infineon (sekitar 15%), Renesas (sekitar 13%), ISSI (sekitar 10%), pasarnya kecil.
Kolam profit bagian ini ada di TSMC, setiap generasi chip AI untuk memasukkan lebih banyak SRAM harus membeli lebih banyak wafer.
Lebih dari 70% wafer proses canggih global berada di tangan TSMC. Area SRAM dari setiap H100, B200, TPU v5, dll., akhirnya berubah menjadi pendapatan TSMC.
L1 HBM: Kolam Profit Terbesar Era AI
HBM (High Bandwidth Memory, memori bandwidth tinggi) adalah DRAM (Dynamic Random-access Memory, memori akses acak dinamis) yang ditumpuk secara vertikal dengan teknologi TSV (Through-Silicon Via), lalu ditempelkan di samping GPU melalui kemasan CoWoS.
HBM hampir sendirian menentukan seberapa besar model yang dapat dijalankan oleh akselerator AI. Pangsa pasar SK hynix, Micron, dan Samsung hampir 100%.
Hingga kuartal pertama 2026, struktur pangsa pasar terbaru adalah: SK hynix 57% hingga 62%, Samsung 22%, Micron 21%. SK hynix memperoleh banyak bagian pembelian dari perusahaan seperti NVIDIA, menjadi pemasok dominan saat ini.
Laporan laba rugi kuartal pertama tahun fiskal 2026 Micron menyebutkan, TAM (Total Addressable Market) HBM akan tumbuh dengan CAGR sekitar 40%, dari sekitar $35 miliar pada 2025 menjadi $100 miliar pada 2028, mencapai titik $100 miliar dua tahun lebih cepat dari perkiraan sebelumnya.
Keunggulan utama HBM terletak pada margin keuntungan yang sangat tinggi. Pada kuartal pertama 2026, margin operasi SK hynix mencapai rekor 72%.
Alasan profitabilitas tinggi,
1) Proses manufaktur TSV mengorbankan sebagian kapasitas DRAM tradisional, menjaga HBM dalam keadaan pasokan terbatas;
2) Meningkatkan yield kemasan canggih sulit, penurunan pangsa Samsung sebelumnya dari 40% menjadi 22% juga dipengaruhi hal ini;
3) Pemasok utama melakukan ekspansi dengan hati-hati, dan mencapai kenaikan harga jual rata-rata (ASP) DRAM lebih dari 60% secara kuartalan pada kuartal pertama 2026, menunjukkan posisi pasar yang jelas sebagai penjual.
Dari tiga raksasa, didorong kuat oleh HBM, laba operasi SK hynix pada 2025 mencapai 47.21 triliun won Korea, secara historis pertama kali melampaui Samsung Electronics. Pada kuartal pertama 2026, dengan margin operasi 72%, bahkan melebihi tingkat profitabilitas TSMC (58.1%) dan NVIDIA (65%).
Micron memiliki ekspektasi pertumbuhan yang sangat tinggi, Bank of America (BofA) pada Mei 2026 secara signifikan menaikkan target harganya menjadi $950. Samsung, dengan produksi massal HBM4 yang terus berlanjut, memiliki ruang terbesar untuk pemulihan pangsa pasar.
L2 DRAM Motherboard
Lapisan ini adalah yang biasa kita sebut modul memori (memory stick).
DRAM motherboard mencakup produk memori konvensional seperti DDR5, LPDDR, GDDR, MR-DIMM, dll. Saat ini merupakan bagian dengan proporsi penjualan pasar tertinggi dalam sistem penyimpanan AI. Total pasar DRAM global pada 2025 mencapai sekitar $121.83 miliar.
Samsung, SK hynix, dan Micron masih mendominasi sebagian besar pasar. Menurut data terbaru kuartal keempat 2025, Samsung menduduki peringkat pertama dengan pangsa pasar 36.6%, SK hynix kedua dengan 32.9%, dan Micron ketiga dengan 22.9%.
Saat ini, peralihan kapasitas ke HBM yang lebih menguntungkan menjaga profitabilitas dan kekuatan penetapan harga memori. Meskipun margin keuntungan produk tunggal DRAM motherboard biasa tidak setinggi HBM, tetapi ukuran pasar keseluruhannya yang terbesar.
L3 Lapisan Poolisasi CXL
CXL (Compute Express Link) memungkinkan DRAM dari motherboard server tunggal untuk di-pooling ke seluruh rak.
Setelah CXL 3.x, di masa depan semua memori dalam satu kabinet dapat dibagikan dan dialokasikan sesuai kebutuhan oleh beberapa GPU. Memecahkan masalah KV cache, database vektor, dan indeks RAG yang tidak muat dan sulit dipindahkan selama inferensi AI.
Modul memori CXL hanya $1.6 miliar pada 2024, diproyeksikan menjadi $23.7 miliar pada 2033. Tampaknya, struktur oligopoli Samsung, SK hynix, dan Micron tetap berlaku.
Di lapisan ini, Astera Labs membuat retimer dan pengontrol memori cerdas antara CXL dan PCIe, menguasai sekitar 55% pangsa sub-pasar tersebut. Pendapatan kuartal terbaru $308 juta, +93% YoY, margin kotor non-GAAP 76.4%, laba bersih +85% YoY. Bisa dibilang sangat menguntungkan.
L4 SSD Kelas Enterprise: Penerima Manfaat Terbesar Era Inferensi
SSD NVMe kelas enterprise adalah medan utama untuk checkpoint pelatihan AI, indeks RAG, offload KV cache, dan caching bobot model. SSD kapasitas besar QLC telah sepenuhnya menggusur HDD dari data lake AI.
Pasar SSD kelas enterprise pada 2025 sekitar $26.1 miliar, CAGR 24%, diproyeksikan menjadi $76 miliar pada 2030.
Strukturnya? Benar, tetap didominasi tiga raksasa.
Pangsa pasar berdasarkan pendapatan Q4 2025: Samsung 36.9%, SK hynix (termasuk Solidigm) 32.9%, Micron 14.0%, Kioxia 11.7%, SanDisk 4.4%. Lima besar total sekitar 90%.
Perubahan terbesar di lapisan ini adalah ledakan SSD QLC dalam skenario inferensi AI. Anak perusahaan SK hynix, Solidigm, dan Kioxia telah membuat produk dengan kapasitas 122 TB per disk. KV cache inferensi AI dan indeks RAG sedang meluber dari HBM ke SSD.
Dari perspektif kolam profit, SSD kelas enterprise tidak memiliki margin kotor se-ekstrem HBM, tetapi menikmati manfaat ganda dari dorongan kapasitas dan ekspansi inferensi.
SK hynix dan Kioxia adalah opsi yang relatif murni. Samsung dan SK hynix sekaligus menikmati tiga lapis manfaat HBM + DRAM + NAND, merupakan perusahaan platform penyimpanan AI yang lebih komprehensif.
L5 NAS dan Penyimpanan Objek Awan: Kolam Efek Majemuk Tarikan Data
NAS dan penyimpanan objek awan adalah lapisan terluar untuk data lake AI, korpus pelatihan, cadangan arsip, dan kolaborasi antar tim. Pada 2025, NAS sekitar $39.6 miliar (CAGR 17%), penyimpanan objek awan sekitar $9.1 miliar (CAGR 16%).
Penyimpanan file kelas enterprise terutama dari NetApp, Dell, HPE, Huawei; untuk UKM adalah Synology, QNAP. Untuk penyimpanan objek awan, berdasarkan perkiraan pangsa IaaS: AWS sekitar 31–32%, Azure sekitar 23–24%, Google Cloud sekitar 11–12%, ketiganya total sekitar 65–70%.
Profit di lapisan ini terutama dari hosting jangka panjang + egress data + penguncian ekosistem.
Ringkasan,
1) DRAM pasar terbesar tetapi margin kotor terendah 30–40%; HBM pasar hanya sepertiga DRAM, tetapi margin kotor dua kali lipat 60%+; retimer CXL pasar terkecil, margin kotor tertinggi 76%+. Semakin dekat ke komputasi, semakin langka, semakin menguntungkan.
2) Pertumbuhan kolam profit terutama berasal dari tiga tempat: HBM (CAGR 28%), SSD kelas enterprise (CAGR 24%), poolisasi CXL (CAGR 37%).
3) Setiap lapisan memiliki hambatan bisnis yang berbeda: HBM bergantung pada hambatan teknologi, TSV, CoWoS, peningkatan yield; CXL bergantung pada IP dan sertifikasi, rantai pasok tunggal retimer; layanan bergantung pada biaya peralihan.







