HBM 是什麼?海力士新一代 HBM4 穩固 DRAM 霸主地位

最近常常從新聞看到,SK 海力士新一代 HBM4 要在年底量產、靠着它,海力士登上了 DRAM 市場的龍頭寶座…

那麼,到底什麼是 HBM?HBM4到底有什麼厲害之處?讓我透過這篇文章來簡單講給你聽!

什麼是 HBM?

HBMHigh Bandwidth Memory,高頻寬記憶體是一種專門為高效能運算(例如 AI 加速器、伺服器、繪圖卡、超級電腦)設計的記憶體。

它跟一般我們在手機、PC 上看到的 DRAM(例如 DDR5、LPDDR5)不太一樣,最大的特色是:

  • 超高速度(高頻寬):資料傳輸速度遠超過一般 DRAM。
  • 低耗電:在提供同樣或更高的頻寬時,功耗卻更低。
  • 體積小:HBM 是將 DRAM 晶片一層一層堆疊起來(3D 堆疊),然後透過 TSV(Through-Silicon Via,矽穿孔) 技術來互連,不像傳統 DRAM 是一片片平鋪。
  • 靠近處理器:HBM 通常緊貼 CPU、GPU、或 AI 晶片旁邊,減少延遲。

為什麼把 DRAM 疊很多層(stack)可以提升傳輸速度?

這是我看完 HBM 的原理後,內心浮現的疑問。查完資料後發現主要是因為 距離縮短+通道數增加

  1. 距離縮短 → 訊號傳遞更快、更省電 傳統 DRAM(像 DDR5)跟處理器(CPU/GPU)之間要經過很長的 PCB 路徑,訊號會衰減、延遲。
    HBM 把記憶體堆疊起來,直接放在處理器旁邊(甚至是同一個封裝),訊號只要走幾十微米而不是幾公分,所以速度快、延遲小、功耗低。
  2. 通道數(I/O 數量)大增 HBM 每一層 DRAM 之間用 TSV(矽穿孔技術) 直接打通,像蓋大樓打電梯井一樣。
    而且因為有大量的 TSV,可以同時傳送更多資料(更多 parallel lanes),總頻寬就爆升。 簡單來說就是不是只靠單一通道跑得更快,而是一堆通道一起跑!

哪些地方需要 HBM?

很明顯,HBM 是專門為那些要高速運算地場景,所以現在主要會需要用到 HBM 的領域有以下三種:

1. AI 伺服器(AI Training / Inference Servers)

基本上這是目前最大宗的應用,用來訓練那些我們常聽到的大型 AI 模型(像 GPT-4、Gemini、Claude 3),用來做大規模推論(Inference)

因為這類任務需要處理大量中間運算結果(activations),和龐大的模型參數(weights),HBM 相當適合,常見的產品型號有:NVIDIA H100、B100、B200 GPU,加上 HBM3 / HBM3E / HBM4

2. 高效能運算(HPC,High-Performance Computing)伺服器

可以想像成超級電腦,專門用來做科學模擬、天氣預測、基因研究,因此也需要非常快的資料傳輸,這些系統也大量採用搭載 HBM 的 CPU/GPU,例如 AMD Instinct MI300 系列。

3. 資料中心 GPU 加速卡(Data Center GPU Cards)

除了 AI 訓練推論,也包含像搜尋引擎、影片推薦系統、即時翻譯服務,因為這些任務要大量快速處理巨量資料。

實際案例有:AWS Inferentia、Google TPU、Meta 自研 AI Accelerator等

DRAM 三大供應商

現在全球的 DRAM 市場,這三家供應商是主流:

  • SK 海力士
  • Samsung
  • Micron 美光

1. SK 海力士(SK hynix)|HBM 技術領先、AI 伺服器首選供應商

SK 海力士近年在高階 DRAM 技術,特別是 HBM(High Bandwidth Memory)領域快速竄起,尤其在 HBM3、HBM3E 到最新 HBM4 的量產節奏上,領先全球。

由於 AI 伺服器對 HBM 的依賴極高,海力士成為 NVIDIA、AMD 等大廠的主要記憶體供應商,也帶動其獲利與市占快速成長。

特色包含:

  • 全球首家量產 HBM4 的記憶體廠商
  • 擁有高堆疊良率與先進封裝技術
  • 在 AI、超級電腦市場市占快速提升
  • 穩健聚焦於高階 DRAM 領域

2. 三星電子(Samsung Electronics)|記憶體龍頭、製程整合最完整

三星是全球 DRAM 出貨量最大的廠商,擁有從晶圓、封裝到模組的完整製造能力,產品線橫跨行動裝置、PC、伺服器與企業級市場。

儘管在 HBM4 的技術成熟度上稍落後 SK 海力士,但透過龐大的研發與資本投入,三星在中長期仍具強勁競爭力。

特色包含:

  • DRAM 市占率長年全球第一(但現在被海力士超越)
  • 自有晶圓製程與封裝能力強
  • 產品組合齊全、全球客戶基礎廣泛
  • 積極投入 HBM、CXL 等次世代記憶體技術

3. 美光科技(Micron Technology)|聚焦利基市場,穩健發展的美系記憶體廠

美光是美國唯一主力的 DRAM 廠商,雖然在 HBM 產品線起步較晚,目前仍在推進 HBM3E、HBM4 的研發,但在傳統 DRAM(如 DDR5、LPDDR5X)與車用、工業等利基應用領域具有穩定優勢。憑藉製程效率與良率管理,美光維持了穩健的營運表現。

特色包含:

  • 聚焦在 DDR、LPDDR 與車用記憶體市場
  • 積極進軍 HBM 與 AI 記憶體應用
  • 技術開發節奏較保守,著重良率與成本
  • 與美國雲端與晶片廠關係密切

HBM 技術演進

HBM(High Bandwidth Memory)技術自 2015 年推出以來,從初代的 HBM1 發展到現在的 HBM4,經歷了多代堆疊技術、頻寬與容量的大幅升級。

從最初的 4 層堆疊、每秒數百 GB 傳輸速度,進化到今天 HBM4 可達 12 層堆疊、頻寬高達 1.5TB/s,容量更提升至 36GB 以上,成為 AI 訓練與高效能運算(HPC)不可或缺的關鍵元件。

尤其是從 HBM3 開始,HBM 真正進入 AI 大規模商用時代,並在 HBM3E 與 HBM4 時代,為像 NVIDIA、AMD 等 AI 晶片提供關鍵記憶體支援。

現在,HBM 不再只是記憶體的一種,而是大型語言模型、高速資料處理系統能否高效運作的核心瓶頸突破口。未來隨著模型尺寸進一步擴大,HBM 的重要性也只會越來越高。

HBM 世代堆疊層數單顆容量頻寬備註
HBM24層/8層4~8GB>256GB/s高級顯示卡用
HBM2E8層8~16GB~460GB/s優化 HBM2
HBM38層16GB~819GB/sNVIDIA H100
HBM3E8~12層24GB1.2TB/s最新大寬帶
HBM412層36GB(預期)1.2~1.5TB/sSK 海力士唯一量產

我的觀點: 海力士建立強力護城河

SK 海力士能在 HBM4 上領先市場,關鍵在於三大優勢:

首先是率先量產,搶下了與 NVIDIA、AMD 等關鍵客戶的先發合作時機;

其次是其在封裝、堆疊、散熱與測試等 HBM 系統整合技術的長期耕耘,使得良率與效能穩定性遠優於對手;

第三則是與主要 AI 晶片廠的深度協作基礎,讓他們能快速提供符合客戶需求的 HBM 解決方案,建立難以取代的信任門檻。

因此我會認為,在未來 1 至 2 年內,海力士將穩居 HBM 技術的領導者地位,並有機會藉由這波 AI 熱潮持續擴大市佔與技術領先幅度。

對於競爭對手而言,追趕的難度不只在於量產技術本身,更在於如何跨越整體技術鏈與產業合作的綜合壁壘。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *