Tác giả: Cát Đa Godot
Lưu trữ AI có thể được chia thành sáu tầng,
1) SRAM trên chip
2) HBM
3) DRAM trên bo mạch chủ
4) Tầng hợp nhất CXL
5) Ổ cứng SSD cấp doanh nghiệp
6) NAS và lưu trữ đối tượng đám mây
Cấp độ này được phân chia dựa trên vị trí của bộ nhớ, càng xuống dưới càng xa khối xử lý tính toán và dung lượng lưu trữ càng lớn.
Năm 2025, tổng quy mô của sáu tầng này (SRAM nằm trên chip xử lý, cần loại trừ giá trị nhúng) vào khoảng 2290 tỷ USD, trong đó DRAM chiếm một nửa, HBM chiếm 15%, SSD chiếm 11%.
Về tình hình lợi nhuận, mỗi tầng đều cực kỳ tập trung vào một số ít đơn vị thống lĩnh, ba tầng đầu phổ biến có thị phần trên 90%.
Có thể chia các nhóm lợi nhuận này thành ba loại,
1) Nhóm lợi nhuận cao độc quyền ở tầng wafer (HBM, SRAM nhúng, SSD QLC)
2) Nhóm lợi nhuận cao mới nổi ở tầng kết nối (CXL)
3) Nhóm lợi nhuận kép từ quy mô ở tầng dịch vụ (NAS, lưu trữ đối tượng đám mây)
Ba loại nhóm có tính chất khác nhau, tốc độ tăng trưởng khác nhau và hào rào bảo vệ cũng khác nhau.
Tại sao lưu trữ lại phân tầng?
Bởi vì trên chip CPU phụ trách điều khiển và chip GPU phụ trách tính toán, chỉ có bộ nhớ đệm tạm thời, tức là bộ nhớ cache SRAM trên chip. Không gian bộ nhớ cache này quá nhỏ, chỉ có thể chứa một số tham số tạm thời, không đủ cho các mô hình lớn.
Bên ngoài hai chip này, cần phải kết nối thêm bộ nhớ lớn hơn để lưu trữ mô hình lớn, cũng như ngữ cảnh suy luận.
Tính toán rất nhanh, việc di chuyển dữ liệu giữa các tầng lưu trữ khác nhau có độ trễ và tiêu hao năng lượng, đây mới là vấn đề lớn nhất.
Vì vậy, hiện có ba hướng phát triển,
1) Tích lũy HBM, đặt bộ nhớ gần GPU hơn để rút ngắn khoảng cách di chuyển
2) CXL hợp nhất bộ nhớ ở cấp giá đỡ để chia sẻ dung lượng
3) Hàn tính toán và lưu trữ trên cùng một wafer, tích hợp tính toán và lưu trữ
Ba hướng này sẽ quyết định hình dạng của từng nhóm lợi nhuận trong năm năm tới.
Dưới đây là chi tiết từng tầng,
L0 SRAM trên chip: Nhóm lợi nhuận độc quyền của TSMC
SRAM (Static Random-access Memory, Bộ nhớ truy cập ngẫu nhiên tĩnh) là bộ nhớ cache bên trong CPU/GPU, được nhúng trong mỗi chip, không được giao dịch riêng lẻ.
Thị trường wafer SRAM độc lập chỉ có quy mô 10–17 tỷ USD, dẫn đầu là Infineon (khoảng 15%), Renesas (khoảng 13%), ISSI (khoảng 10%), thị trường nhỏ.
Nhóm lợi nhuận này thuộc về TSMC, vì mỗi thế hệ chip AI cần thêm SRAM, buộc phải mua nhiều wafer hơn.
Trong khi hơn 70% wafer công nghệ tiên tiến toàn cầu nằm trong tay TSMC. Diện tích SRAM trên mỗi chip H100, B200, TPU v5, v.v., cuối cùng đều trở thành doanh thu của TSMC.
L1 HBM: Nhóm lợi nhuận lớn nhất trong thời đại AI
HBM (High Bandwidth Memory, Bộ nhớ băng thông cao) là quy trình xếp chồng DRAM (Dynamic Random-access Memory, Bộ nhớ truy cập ngẫu nhiên động) theo chiều dọc bằng công nghệ TSV (Through-Silicon Via), sau đó dán cạnh GPU thông qua đóng gói CoWoS để tạo thành bộ nhớ băng thông cao.
HBM gần như một mình quyết định kích thước mô hình mà bộ tăng tốc AI có thể chạy. SK Hynix, Micron, Samsung chiếm thị phần gần như 100%.
Tính đến Quý I năm 2026, cấu trúc thị phần mới nhất là: SK Hynix 57% đến 62%, Samsung 22%, Micron 21%. SK Hynix đã giành được phần lớn hợp đồng mua hàng từ NVIDIA và các doanh nghiệp khác, trở thành nhà cung cấp chiếm ưu thế hiện tại.
Cuộc họp báo cáo tài chính Quý I năm tài chính 2026 của Micron đề cập rằng TAM (Thị trường tiềm năng tổng) của HBM sẽ tăng với tốc độ tăng trưởng kép hàng năm (CAGR) khoảng 40%, từ khoảng 350 tỷ USD năm 2025 lên 1000 tỷ USD vào năm 2028, mốc thời gian đạt 1000 tỷ USD sớm hơn hai năm so với dự báo trước đó.
Lợi thế cốt lõi của HBM nằm ở tỷ suất lợi nhuận cực cao. Quý I năm 2026, tỷ suất lợi nhuận hoạt động của SK Hynix đạt mức kỷ lục 72%.
Lý do lợi nhuận cao,
1) Quy trình sản xuất TSV sẽ hy sinh một phần công suất DRAM truyền thống, khiến HBM duy trì trạng thái cung không đủ cầu;
2) Tỷ lệ sản phẩm tốt của đóng gói tiên tiến khó cải thiện, thị phần của Samsung trước đây giảm từ 40% xuống 22% cũng chịu ảnh hưởng từ điều này;
3) Các nhà cung cấp chính mở rộng sản xuất thận trọng, và đạt được mức tăng giá bình quân (ASP) của DRAM trên 60% so với quý trước trong Quý I năm 2026, thể hiện vị thế rõ ràng của thị trường người bán.
Trong ba gã khổng lồ, SK Hynix được thúc đẩy mạnh mẽ bởi HBM, lợi nhuận hoạt động cả năm 2025 đạt 47.21 nghìn tỷ Won, lần đầu tiên trong lịch sử vượt qua Samsung Electronics, và trong Quý I năm 2026 với tỷ suất lợi nhuận hoạt động 72%, thậm chí vượt qua mức lợi nhuận của TSMC (58.1%) và NVIDIA (65%).
Micron có kỳ vọng tăng trưởng rất cao, Ngân hàng Mỹ (BofA) vào tháng 5 năm 2026 đã điều chỉnh mạnh mục tiêu giá của nó lên 950 USD. Samsung, với việc sản xuất hàng loạt HBM4 liên tục được thúc đẩy, có không gian phục hồi thị phần lớn nhất.
L2 DRAM trên bo mạch chủ
Tầng này là thanh RAM thông thường mà chúng ta thường nói.
DRAM trên bo mạch chủ bao gồm các sản phẩm bộ nhớ thông thường như DDR5, LPDDR, GDDR, MR-DIMM, hiện là phần chiếm tỷ trọng doanh số thị trường cao nhất trong hệ thống lưu trữ AI, tổng quy mô thị trường DRAM toàn cầu năm 2025 đạt khoảng 1218.3 tỷ USD.
Samsung, SK Hynix, Micron ba công ty vẫn chiếm phần lớn thị trường. Theo dữ liệu mới nhất Quý IV năm 2025, Samsung đứng đầu với thị phần 36.6%, SK Hynix xếp thứ hai với 32.9%, Micron xếp thứ ba với 22.9%.
Hiện tại, việc chuyển hướng công suất sang HBM có lợi nhuận cao hơn đã giúp bộ nhớ duy trì lợi nhuận cao và quyền định giá. Mặc dù tỷ suất lợi nhuận của sản phẩm đơn lẻ DRAM thông thường trên bo mạch chủ không bằng HBM, nhưng tổng quy mô thị trường của nó là lớn nhất.
L3 Tầng hợp nhất CXL
CXL (Compute Express Link) cho phép hợp nhất DRAM từ bo mạch chủ của một máy chủ đơn lẻ thành toàn bộ giá đỡ.
Sau CXL 3.x, trong tương lai tất cả bộ nhớ trong một tủ máy có thể được chia sẻ và điều phối bởi nhiều GPU, phân bổ theo nhu cầu. Giải quyết vấn đề KV cache, cơ sở dữ liệu vector, chỉ số RAG không đủ chứa và khó di chuyển trong suy luận AI.
Mô-đun bộ nhớ CXL năm 2024 chỉ có 16 tỷ USD, dự kiến 237 tỷ USD vào năm 2033. Có vẻ như vẫn là cấu trúc độc quyền của Samsung, SK Hynix, Micron.
Ở tầng này, Astera Labs làm bộ định thời lại (Retimer) và bộ điều khiển bộ nhớ thông minh giữa CXL và PCIe, chiếm khoảng 55% thị phần của phân khúc thị trường này. Doanh thu quý mới nhất là 3.08 tỷ USD, tăng +93% so với cùng kỳ, biên lợi nhuận phi GAAP là 76.4%, lợi nhuận ròng tăng +85% so với cùng kỳ. Có thể nói là cực kỳ lợi nhuận cao.
L4 SSD cấp doanh nghiệp: Người hưởng lợi lớn nhất trong thời đại suy luận
SSD NVMe cấp doanh nghiệp là chiến trường chính cho checkpoint huấn luyện AI, chỉ số RAG, offload KV cache, cache trọng số mô hình. SSD dung lượng lớn QLC đã hoàn toàn đẩy HDD ra khỏi hồ dữ liệu AI.
Thị trường SSD cấp doanh nghiệp năm 2025 vào khoảng 261 tỷ USD, CAGR 24%, dự kiến 760 tỷ USD vào năm 2030.
Cấu trúc thị trường ư? Đúng vậy, vẫn do ba gã khổng lồ nắm giữ.
Thị phần tính theo doanh thu Quý IV năm 2025, Samsung 36.9%, SK Hynix (bao gồm Solidigm) 32.9%, Micron 14.0%, Kioxia 11.7%, SanDisk 4.4%. Năm công ty đầu tiên chiếm tổng cộng khoảng 90%.
Thay đổi lớn nhất ở tầng này là sự bùng nổ của SSD QLC trong các kịch bản suy luận AI. Công ty con của SK Hynix là Solidigm và Kioxia đã sản xuất sản phẩm có dung lượng đĩa đơn 122 TB, KV cache và chỉ số RAG trong suy luận AI đang chuyển dần từ HBM sang SSD.
Từ góc độ nhóm lợi nhuận, SSD cấp doanh nghiệp không có biên lợi nhuận cực cao như HBM, nhưng được hưởng lợi kép từ việc được thúc đẩy bởi dung lượng và sự mở rộng của suy luận.
SK Hynix và Kioxia là các công ty tương đối thuần túy trong lĩnh vực này. Samsung và SK Hynix đồng thời hưởng lợi ba tầng HBM + DRAM + NAND, là các công ty nền tảng lưu trữ AI toàn diện hơn.
L5 NAS và lưu trữ đối tượng đám mây: Nhóm lợi nhuận kép từ lực hút dữ liệu
NAS và lưu trữ đối tượng đám mây là lớp ngoài cùng của hồ dữ liệu AI, ngữ liệu huấn luyện, sao lưu lưu trữ, hợp tác xuyên nhóm. Năm 2025, NAS khoảng 396 tỷ USD (CAGR 17%), lưu trữ đối tượng đám mây khoảng 91 tỷ USD (CAGR 16%).
Các nhà sản xuất chính về lưu trữ tệp cấp doanh nghiệp là NetApp, Dell, HPE, Huawei; cho doanh nghiệp vừa và nhỏ thì có Synology, QNAP. Lưu trữ đối tượng đám mây được ước tính dựa trên thị phần IaaS, AWS khoảng 31–32%, Azure khoảng 23–24%, Google Cloud khoảng 11–12%, ba công ty chiếm tổng cộng khoảng 65–70%.
Lợi nhuận của tầng này chủ yếu đến từ việc lưu trữ dài hạn + xuất dữ liệu khỏi mạng + khóa chặt hệ sinh thái.
Tóm tắt lại,
1) DRAM có quy mô lớn nhất nhưng biên lợi nhuận thấp nhất 30–40%; HBM có quy mô chỉ bằng một phần ba DRAM nhưng biên lợi nhuận gấp đôi 60%+; bộ định thời lại CXL có quy mô nhỏ nhất nhưng biên lợi nhuận cao nhất 76%+. Các tầng càng gần tính toán càng khan hiếm và có lợi nhuận cao.
2) Sự gia tăng của nhóm lợi nhuận chủ yếu đến từ ba nơi, HBM (CAGR 28%), SSD cấp doanh nghiệp (CAGR 24%), hợp nhất hóa CXL (CAGR 37%).
3) Mỗi tầng có các rào cản kinh doanh khác nhau, HBM dựa vào rào cản công nghệ, TSV, CoWoS, leo dốc tỷ lệ sản phẩm tốt; các sản phẩm CXL dựa vào IP và chứng nhận, chuỗi cung ứng đơn lẻ cho bộ định thời lại; dịch vụ dựa vào chi phí chuyển đổi.







