最近常常從新聞看到,SK 海力士新一代 HBM4 要在年底量產、靠着它,海力士登上了 DRAM 市場的龍頭寶座…
那麼,到底什麼是 HBM?HBM4到底有什麼厲害之處?讓我透過這篇文章來簡單講給你聽!

什麼是 HBM?
HBM(High Bandwidth Memory,高頻寬記憶體)是一種專門為高效能運算(例如 AI 加速器、伺服器、繪圖卡、超級電腦)設計的記憶體。
它跟一般我們在手機、PC 上看到的 DRAM(例如 DDR5、LPDDR5)不太一樣,最大的特色是:
- 超高速度(高頻寬):資料傳輸速度遠超過一般 DRAM。
- 低耗電:在提供同樣或更高的頻寬時,功耗卻更低。
- 體積小:HBM 是將 DRAM 晶片一層一層堆疊起來(3D 堆疊),然後透過 TSV(Through-Silicon Via,矽穿孔) 技術來互連,不像傳統 DRAM 是一片片平鋪。
- 靠近處理器:HBM 通常緊貼 CPU、GPU、或 AI 晶片旁邊,減少延遲。
為什麼把 DRAM 疊很多層(stack)可以提升傳輸速度?
這是我看完 HBM 的原理後,內心浮現的疑問。查完資料後發現主要是因為 距離縮短+通道數增加:
- 距離縮短 → 訊號傳遞更快、更省電 傳統 DRAM(像 DDR5)跟處理器(CPU/GPU)之間要經過很長的 PCB 路徑,訊號會衰減、延遲。
HBM 把記憶體堆疊起來,直接放在處理器旁邊(甚至是同一個封裝),訊號只要走幾十微米而不是幾公分,所以速度快、延遲小、功耗低。 - 通道數(I/O 數量)大增 HBM 每一層 DRAM 之間用 TSV(矽穿孔技術) 直接打通,像蓋大樓打電梯井一樣。
而且因為有大量的 TSV,可以同時傳送更多資料(更多 parallel lanes),總頻寬就爆升。 簡單來說就是不是只靠單一通道跑得更快,而是一堆通道一起跑!
哪些地方需要 HBM?
很明顯,HBM 是專門為那些要高速運算地場景,所以現在主要會需要用到 HBM 的領域有以下三種:
1. AI 伺服器(AI Training / Inference Servers)
基本上這是目前最大宗的應用,用來訓練那些我們常聽到的大型 AI 模型(像 GPT-4、Gemini、Claude 3),用來做大規模推論(Inference)
因為這類任務需要處理大量中間運算結果(activations),和龐大的模型參數(weights),HBM 相當適合,常見的產品型號有:NVIDIA H100、B100、B200 GPU,加上 HBM3 / HBM3E / HBM4
2. 高效能運算(HPC,High-Performance Computing)伺服器
可以想像成超級電腦,專門用來做科學模擬、天氣預測、基因研究,因此也需要非常快的資料傳輸,這些系統也大量採用搭載 HBM 的 CPU/GPU,例如 AMD Instinct MI300 系列。
3. 資料中心 GPU 加速卡(Data Center GPU Cards)
除了 AI 訓練推論,也包含像搜尋引擎、影片推薦系統、即時翻譯服務,因為這些任務要大量快速處理巨量資料。
實際案例有:AWS Inferentia、Google TPU、Meta 自研 AI Accelerator等
DRAM 三大供應商
現在全球的 DRAM 市場,這三家供應商是主流:
- SK 海力士
- Samsung
- Micron 美光
1. SK 海力士(SK hynix)|HBM 技術領先、AI 伺服器首選供應商
SK 海力士近年在高階 DRAM 技術,特別是 HBM(High Bandwidth Memory)領域快速竄起,尤其在 HBM3、HBM3E 到最新 HBM4 的量產節奏上,領先全球。
由於 AI 伺服器對 HBM 的依賴極高,海力士成為 NVIDIA、AMD 等大廠的主要記憶體供應商,也帶動其獲利與市占快速成長。
特色包含:
- 全球首家量產 HBM4 的記憶體廠商
- 擁有高堆疊良率與先進封裝技術
- 在 AI、超級電腦市場市占快速提升
- 穩健聚焦於高階 DRAM 領域
2. 三星電子(Samsung Electronics)|記憶體龍頭、製程整合最完整
三星是全球 DRAM 出貨量最大的廠商,擁有從晶圓、封裝到模組的完整製造能力,產品線橫跨行動裝置、PC、伺服器與企業級市場。
儘管在 HBM4 的技術成熟度上稍落後 SK 海力士,但透過龐大的研發與資本投入,三星在中長期仍具強勁競爭力。
特色包含:
- DRAM 市占率長年全球第一(但現在被海力士超越)
- 自有晶圓製程與封裝能力強
- 產品組合齊全、全球客戶基礎廣泛
- 積極投入 HBM、CXL 等次世代記憶體技術
3. 美光科技(Micron Technology)|聚焦利基市場,穩健發展的美系記憶體廠
美光是美國唯一主力的 DRAM 廠商,雖然在 HBM 產品線起步較晚,目前仍在推進 HBM3E、HBM4 的研發,但在傳統 DRAM(如 DDR5、LPDDR5X)與車用、工業等利基應用領域具有穩定優勢。憑藉製程效率與良率管理,美光維持了穩健的營運表現。
特色包含:
- 聚焦在 DDR、LPDDR 與車用記憶體市場
- 積極進軍 HBM 與 AI 記憶體應用
- 技術開發節奏較保守,著重良率與成本
- 與美國雲端與晶片廠關係密切
HBM 技術演進
HBM(High Bandwidth Memory)技術自 2015 年推出以來,從初代的 HBM1 發展到現在的 HBM4,經歷了多代堆疊技術、頻寬與容量的大幅升級。
從最初的 4 層堆疊、每秒數百 GB 傳輸速度,進化到今天 HBM4 可達 12 層堆疊、頻寬高達 1.5TB/s,容量更提升至 36GB 以上,成為 AI 訓練與高效能運算(HPC)不可或缺的關鍵元件。
尤其是從 HBM3 開始,HBM 真正進入 AI 大規模商用時代,並在 HBM3E 與 HBM4 時代,為像 NVIDIA、AMD 等 AI 晶片提供關鍵記憶體支援。
現在,HBM 不再只是記憶體的一種,而是大型語言模型、高速資料處理系統能否高效運作的核心瓶頸突破口。未來隨著模型尺寸進一步擴大,HBM 的重要性也只會越來越高。
HBM 世代 | 堆疊層數 | 單顆容量 | 頻寬 | 備註 |
---|---|---|---|---|
HBM2 | 4層/8層 | 4~8GB | >256GB/s | 高級顯示卡用 |
HBM2E | 8層 | 8~16GB | ~460GB/s | 優化 HBM2 |
HBM3 | 8層 | 16GB | ~819GB/s | NVIDIA H100 |
HBM3E | 8~12層 | 24GB | 1.2TB/s | 最新大寬帶 |
HBM4 | 12層 | 36GB(預期) | 1.2~1.5TB/s | SK 海力士唯一量產 |
我的觀點: 海力士建立強力護城河
SK 海力士能在 HBM4 上領先市場,關鍵在於三大優勢:
首先是率先量產,搶下了與 NVIDIA、AMD 等關鍵客戶的先發合作時機;
其次是其在封裝、堆疊、散熱與測試等 HBM 系統整合技術的長期耕耘,使得良率與效能穩定性遠優於對手;
第三則是與主要 AI 晶片廠的深度協作基礎,讓他們能快速提供符合客戶需求的 HBM 解決方案,建立難以取代的信任門檻。
因此我會認為,在未來 1 至 2 年內,海力士將穩居 HBM 技術的領導者地位,並有機會藉由這波 AI 熱潮持續擴大市佔與技術領先幅度。
對於競爭對手而言,追趕的難度不只在於量產技術本身,更在於如何跨越整體技術鏈與產業合作的綜合壁壘。