正在閱讀:

價格暴漲500%,HBM市場徹底被引爆

掃一掃下載界面新聞APP

價格暴漲500%,HBM市場徹底被引爆

目前的HBM市場主要以SK海力士、三星和美光三家公司為主。

文|半導體產業(yè)縱橫

內存技術作為計算機系統(tǒng)的核心組成部分,其性能的提升對于整體計算能力的提升至關重要。在這個背景下,高帶寬內存(HBM)以其卓越的性能表現(xiàn),正逐漸在內存技術領域嶄露頭角,成為推動計算領域進入全新時代的關鍵力量。

相較于傳統(tǒng)的動態(tài)隨機存取內存(DRAM),HBM的性能優(yōu)勢顯而易見。

01、遠遠超越DDR

DDR 是一種常見的計算機內存類型,最早是為了提高內存?zhèn)鬏斔俾识O計的。它采用了雙倍數(shù)據(jù)傳輸技術,即在每個時鐘周期內可以傳輸兩次數(shù)據(jù),從而提高了數(shù)據(jù)傳輸速率。

目前最常見的DDR版本是 DDR4、DDR5,但在過去還有 DDR3、DDR2、DDR等版本。每一代DDR版本都有不同的數(shù)據(jù)傳輸速率和性能。

DDR內存通常用于計算機的系統(tǒng)內存,用于存儲操作系統(tǒng)和正在運行的應用程序等數(shù)據(jù)。

HBM是一種高帶寬內存技術,專注于提供更高的內存帶寬,尤其適用于高性能計算和圖形處理領域。HBM的一個顯著特點是,它使用了堆疊技術,將多個DRAM芯片垂直堆疊在一起,從而大大增加了數(shù)據(jù)通路,提高了內存的帶寬。

因此HBM 具有可擴展更大容量的特性。不僅HBM 的單層 DRAM 芯片容量可擴展,HBM 還可以通過 4 層、8 層以至 12 層堆疊的 DRAM 芯片,此外HBM可以通過 SiP 集成多個 HBM 疊層 DRAM 芯片等方法,實現(xiàn)更大的內存容量。

HBM內存通常用于高性能顯卡、GPU加速器以及需要大量數(shù)據(jù)傳輸?shù)母咝阅苡嬎銘弥小?/p>

從功耗角度來看,由于采用了 TSV 和微凸塊技術,DRAM 裸片與處理器間實現(xiàn)了較短的信號傳輸路徑以及較低的單引腳 I/O 速度和 I/O 電壓,使 HBM 具備更好的內存功耗能效特性。以 DDR3 存儲器歸一化單引腳 I/O 帶寬功耗比為基準,HBM2 的 I/O 功耗比明顯低于 DDR3、DDR4 和 GDDR5 存儲器,相對于 GDDR5 存儲器,HBM2 的單引腳 I/O 帶寬功耗比數(shù)值降低 42%。

在系統(tǒng)集成方面,HBM 將原本在 PCB 板上的 DDR 內存顆粒和 CPU 芯片全部集成到 SiP 里,因此 HBM 在節(jié)省產品空間方面也更具優(yōu)勢。相對于 GDDR5 存儲器,HBM2 節(jié)省了 94% 的芯片面積。

02、三大原廠的研發(fā)歷程

目前的HBM市場主要以SK海力士、三星和美光三家公司為主。

2014 年,SK海力士與 AMD 聯(lián)合開發(fā)了全球首款硅通孔HBM,至今已經迭代升級了4代HBM產品,性能和容量持續(xù)提升。2020年SK海力士宣布成功研發(fā)新一代HBM2E;2021年開發(fā)出全球第一款HBM3;2022年HBM3芯片供貨英偉達。2023年8月,SK海力士推出HBM3E,11月英偉達宣布H200將搭載HBM3E。

可以說從HBM1、HBM2E、HBM3、HBM3E,SK海力士持續(xù)領先。2022年SK海力士占據(jù)HBM市場約50%的份額,三星占比40%,美光占比10%。

在很長一段時間內,SK海力士都是英偉達HBM的獨家供應商。2023年SK海力士基本壟斷了HBM3供應,今年其HBM3與HBM3E的訂單也已售罄。

三星是在2016年,開始宣布量產4GB/8GB HBM2 DRAM;2018年,宣布量產第二代8GB HBM2;2020年,推出16GB HBM2E產品;2021年,三星開發(fā)出具有AI處理能力的HBM-PIM;雖然三星的路線圖顯示2022年HBM3技術已經量產,但實際上三星的HBM3在2023年底才正式完成驗證,這意味著在大量生產之前,市場還是由SK 海力士壟斷。

再看美光,2020年,美光宣布將開始提供HBM2內存/顯存;2021年,HBM2E產品上市。為了改善自己在HBM市場中的被動地位,美光選擇了直接跳過第四代HBM即HBM3,直接升級到了第五代,即HBM3E。隨后在2023年9月,美光宣布推出HBM3 Gen2(即HBM3E),后續(xù)表示計劃于 2024 年初開始大批量發(fā)貨 HBM3 Gen2 內存,同時透露英偉達是主要客戶之一。

03、HBM2e過渡到HBM3e

HBM的概念的起飛與AIGC的火爆有直接關系。

AI大模型的興起催生了海量算力需求,而數(shù)據(jù)處理量和傳輸速率大幅提升使得AI服務器對芯片內存容量和傳輸帶寬提出更高要求。HBM具備高帶寬、高容量、低延時和低功耗優(yōu)勢,目前已逐步成為AI服務器中GPU的搭載標配。

目前,HBM產品以HBM(第一代)、HBM2(第二代)、HBM2E(第三代)、HBM3(第四代)、HBM3E(第五代)的順序開發(fā),最新的HBM3E是HBM3的擴展版本。

來源:山西證券

HBM每一次更新迭代都會伴隨著處理速度的提高。引腳(Pin)數(shù)據(jù)傳輸速率為1Gbps的第一代HBM,發(fā)展到其第五代產品HBM3E,速率提高到了8Gbps,即每秒可以處理1.225TB的數(shù)據(jù)。也就是說,下載一部長達163分鐘的全高清(Full-HD)電影(1TB)只需不到1秒鐘的時間。

當然,存儲器的容量也在不斷加大。HBM2E的最大容量為16GB,目前,三星正在利用EUV光刻機來制造24GB容量的HBM3芯片,此外8層、12層堆疊可在HBM3E上實現(xiàn)36GB(業(yè)界最大)的容量,比HBM3高出50%。

此前SK海力士、美光均已宣布推出HBM3E芯片,皆可實現(xiàn)超過1TB/s的帶寬。

根據(jù)TrendForce集邦咨詢調查顯示,2023年HBM市場主流為HBM2e,包含NVIDIA A100/A800、AMD MI200以及多數(shù)CSPs自研加速芯片皆以此規(guī)格設計。同時,為順應AI加速器芯片需求演進,各原廠計劃于2024年推出新產品HBM3e,預期HBM3與HBM3e將成為明年市場主流。

04、HBM3e市場徹底被引爆

SK海力士無疑是這波內存熱潮中的最大受益者,截至2023年12月31日,SK海力士在2023財年和第四季度的營收取得了顯著增長。特別是其主力產品DDR5 DRAM和HBM3,在這一年的收入較去年上漲了4倍以上。

英偉達和AMD的下一代人工智能GPU預計將主要搭載HBM3內存。例如,H100是第一款支持PCIe 5.0標準的GPU,也是第一款采用HBM3的GPU,最多支持六顆HBM3,帶寬為3TB/s,是A100采用HBM2E的1.5倍,默認顯存容量為80GB。

2023年11月英偉達發(fā)布了新一代AI GPU芯片H200,以及搭載這款GPU的AI服務器平臺HGX H200等產品。這款GPU是H100的升級款,依舊采用Hopper架構、臺積電4nm制程工藝,根據(jù)英偉達官網,H200的GPU芯片沒有升級,核心數(shù)、頻率沒有變化,主要的升級便是首次搭載HBM3e顯存,并且容量從80GB提升至141GB。

得益于新升級的HBM3e芯片,H200的顯存帶寬可達4.8TB/s,比H100的3.35TB/s提升了43%。不過這遠沒有達到HBM3e的上限,海外分析人士稱英偉達有意降低HBM3e的速度,以追求穩(wěn)定。如果與傳統(tǒng)x86服務器相比,H200的內存性能最高可達110倍。

由于美光、SK海力士等公司的HBM3e芯片需等到2024年才會發(fā)貨,因此英偉達表示H200產品預計將在2024年第二季度正式開售。

AMD 的 MI300 也搭配 HBM3,其中,MI300A 容量與前一代相同為 128GB,更高端 MI300X 則達 192GB,提升了 50%。AMD稱,MI300X提供的HBM密度最高是英偉達AI芯片H100的2.4倍,其HBM帶寬最高是H100的1.6倍。這意味著,AMD的芯片可以運行比英偉達芯片更大的模型。

與此同時,在2023年隨著AI GPU 以及與AI相關的各類需求激增,HBM價格也持續(xù)上漲。市場研究機構Yolo Group 報告顯示,2023 年期間HBM 內存供需鏈發(fā)生了重大變化,生產水平和采用率同時大幅提高,使得 HBM 成為比人工智能熱潮之前更有價值的資源,2023年 HBM 芯片的平均售價是傳統(tǒng) DRAM 內存芯片的五倍。

在HBM盛行的當下,沒有一家存儲廠商能夠忍住不分一杯羹。

05、三大原廠為之“瘋狂”

技術升級

SK海力士在SEMICON Korea 2024上發(fā)布了一項重要公告,公布了其雄心勃勃的高帶寬存儲器路線圖。該公司副總裁Kim Chun-hwan透露,計劃在2024上半年開始量產先進的HBM3E,并強調向客戶交付8層堆疊樣品。

HBM3E是SK海力士產品線的最新產品,可滿足日益增長的數(shù)據(jù)帶寬需求,在6堆棧配置中,每堆棧可提供1.2 TB/s和驚人的7.2 TB/s通信帶寬。Kim Chun-hwan將這種進步的緊迫性歸因于生成式人工智能的迅速崛起,預計將見證驚人的35%的復合年增長率(CAGR)。然而,他警告說,在不斷升級的客戶期望的推動下,半導體行業(yè)正在面臨“激烈的生存競爭”。

隨著制程工藝節(jié)點的縮小并接近其極限,半導體行業(yè)越來越關注下一代存儲器架構和工藝,以釋放更高的性能。SK海力士已經啟動了HBM4的開發(fā),計劃于2025年提供樣品,并于次年量產。

根據(jù)美光的信息,與前幾代HBM相比,HBM4將采用更廣泛的2048位接口。導致每個堆棧的理論峰值內存帶寬超過1.5 TB/s。為了實現(xiàn)這些非凡的帶寬,在保持合理功耗的同時,HBM4的目標是大約6GT/s的數(shù)據(jù)傳輸速率。這種更寬的接口和更快的速度將使HBM4能夠突破內存帶寬的界限,滿足日益增長的高性能計算和AI工作負載需求。

三星是半導體行業(yè)的主要參與者,該公司也有HBM4的發(fā)布時間表,計劃于2025年提供樣品,并于2026年量產。三星高管Jaejune Kim透露,該公司的HBM產量的一半以上已經由專業(yè)產品組成。定制HBM解決方案的趨勢預計將加劇。通過邏輯集成,量身定制的選項對于滿足個性化客戶需求至關重要,從而鞏固了市場地位。

隨著HBM3E的發(fā)布和HBM4的準備,SK海力士和三星正在為未來的挑戰(zhàn)做準備,旨在保持其在HBM技術前沿的地位。不僅如此,全球前三大存儲芯片制造商正將更多產能轉移至生產HBM,但由于調整產能需要時間,很難迅速增加HBM產量,預計未來兩年HBM供應仍將緊張。

擴產情況

再看三大原廠的擴產情況。據(jù)悉,SK海力士將擴大其高帶寬內存生產設施投資,以應對高性能AI產品需求的增加。

去年6月有媒體報道稱,SK海力士正在準備投資后段工藝設備,將擴建封裝HBM3的利川工廠,預計到今年年末,該廠后段工藝設備規(guī)模將增加近一倍。

此外,SK海力士還將在美國印第安納州建造一座最先進的制造工廠,據(jù)兩位接受英國《金融時報》采訪的消息人士透露,SK海力士將在這家工廠生產 HBM 堆棧,這些堆棧將用于臺積電生產的 Nvidia GPU,SK 集團董事長表示,該工廠預計耗資 220 億美元。

三星電子和 SK 海力士之間的競爭正在升溫。三星電子從去年第四季度開始擴大第四代HBM即HBM3的供應,目前正進入一個過渡期。負責三星美國半導體業(yè)務的執(zhí)行副總裁 Han Jin-man 在今年1月表示,公司對包括 HBM 系列在內的大容量存儲芯片寄予厚望,希望它能引領快速增長的人工智能芯片領域。他在CES 2024的媒體見面會上對記者說,“我們今年的 HBM 芯片產量將比去年提高 2.5 倍,明年還將繼續(xù)提高 2 倍。”

三星官方還透露,公司計劃在今年第四季度之前,將 HBM 的最高產量提高到每月 15 萬至 17 萬件,以此來爭奪2024年的HBM市場。此前三星電子斥資105億韓元收購了三星顯示位于韓國天安市的工廠和設備,以擴大HBM產能,同時還計劃投資7000億至1萬億韓元新建封裝線。

為了縮小差距,美光對其下一代產品 HBM3E 下了很大的賭注,美光首席執(zhí)行官 Sanjay Mehrotra 表示:“我們正處于為英偉達下一代 AI 加速器提供 HBM3E 的驗證的最后階段?!逼溆媱澯?2024 年初開始大批量發(fā)貨 HBM3E 內存,同時強調其新產品受到了整個行業(yè)的極大興趣。據(jù)悉,美光科技位于中國臺灣的臺中四廠已于2023年11月初正式啟用。美光表示,臺中四廠將整合先進探測與封裝測試功能,量產HBM3E及其他產品,從而滿足人工智能、數(shù)據(jù)中心、邊緣計算及云端等各類應用日益增長的需求。該公司計劃于2024年初開始大量出貨HBM3E。

值得注意的是高階HBM的競爭才剛剛開始,雖然目前HBM產品占整體存儲的出貨量仍然非常小,長期來看,隨著消費電子產品向AI化發(fā)展,對于高算力、高存儲、低能耗將是主要訴求方向,鑒于此預計HBM也將成為未來存儲廠商的技術發(fā)展方向。

本文為轉載內容,授權事宜請聯(lián)系原著作權人。

SK海力士

3.8k
  • 亞太主要股指收盤多數(shù)下跌,韓國綜合指數(shù)跌1.3%
  • 科技早報|微信測試“送禮物”功能帶動相關概念股大漲;我國提前完成“十四五”5G建設發(fā)展目標

三星

5.2k
  • 三星電子獲美國47.45億美元芯片補貼
  • 亞太主要股指午間漲跌互現(xiàn),日經225指數(shù)漲1.39%

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

價格暴漲500%,HBM市場徹底被引爆

目前的HBM市場主要以SK海力士、三星和美光三家公司為主。

文|半導體產業(yè)縱橫

內存技術作為計算機系統(tǒng)的核心組成部分,其性能的提升對于整體計算能力的提升至關重要。在這個背景下,高帶寬內存(HBM)以其卓越的性能表現(xiàn),正逐漸在內存技術領域嶄露頭角,成為推動計算領域進入全新時代的關鍵力量。

相較于傳統(tǒng)的動態(tài)隨機存取內存(DRAM),HBM的性能優(yōu)勢顯而易見。

01、遠遠超越DDR

DDR 是一種常見的計算機內存類型,最早是為了提高內存?zhèn)鬏斔俾识O計的。它采用了雙倍數(shù)據(jù)傳輸技術,即在每個時鐘周期內可以傳輸兩次數(shù)據(jù),從而提高了數(shù)據(jù)傳輸速率。

目前最常見的DDR版本是 DDR4、DDR5,但在過去還有 DDR3、DDR2、DDR等版本。每一代DDR版本都有不同的數(shù)據(jù)傳輸速率和性能。

DDR內存通常用于計算機的系統(tǒng)內存,用于存儲操作系統(tǒng)和正在運行的應用程序等數(shù)據(jù)。

HBM是一種高帶寬內存技術,專注于提供更高的內存帶寬,尤其適用于高性能計算和圖形處理領域。HBM的一個顯著特點是,它使用了堆疊技術,將多個DRAM芯片垂直堆疊在一起,從而大大增加了數(shù)據(jù)通路,提高了內存的帶寬。

因此HBM 具有可擴展更大容量的特性。不僅HBM 的單層 DRAM 芯片容量可擴展,HBM 還可以通過 4 層、8 層以至 12 層堆疊的 DRAM 芯片,此外HBM可以通過 SiP 集成多個 HBM 疊層 DRAM 芯片等方法,實現(xiàn)更大的內存容量。

HBM內存通常用于高性能顯卡、GPU加速器以及需要大量數(shù)據(jù)傳輸?shù)母咝阅苡嬎銘弥小?/p>

從功耗角度來看,由于采用了 TSV 和微凸塊技術,DRAM 裸片與處理器間實現(xiàn)了較短的信號傳輸路徑以及較低的單引腳 I/O 速度和 I/O 電壓,使 HBM 具備更好的內存功耗能效特性。以 DDR3 存儲器歸一化單引腳 I/O 帶寬功耗比為基準,HBM2 的 I/O 功耗比明顯低于 DDR3、DDR4 和 GDDR5 存儲器,相對于 GDDR5 存儲器,HBM2 的單引腳 I/O 帶寬功耗比數(shù)值降低 42%。

在系統(tǒng)集成方面,HBM 將原本在 PCB 板上的 DDR 內存顆粒和 CPU 芯片全部集成到 SiP 里,因此 HBM 在節(jié)省產品空間方面也更具優(yōu)勢。相對于 GDDR5 存儲器,HBM2 節(jié)省了 94% 的芯片面積。

02、三大原廠的研發(fā)歷程

目前的HBM市場主要以SK海力士、三星和美光三家公司為主。

2014 年,SK海力士與 AMD 聯(lián)合開發(fā)了全球首款硅通孔HBM,至今已經迭代升級了4代HBM產品,性能和容量持續(xù)提升。2020年SK海力士宣布成功研發(fā)新一代HBM2E;2021年開發(fā)出全球第一款HBM3;2022年HBM3芯片供貨英偉達。2023年8月,SK海力士推出HBM3E,11月英偉達宣布H200將搭載HBM3E。

可以說從HBM1、HBM2E、HBM3、HBM3E,SK海力士持續(xù)領先。2022年SK海力士占據(jù)HBM市場約50%的份額,三星占比40%,美光占比10%。

在很長一段時間內,SK海力士都是英偉達HBM的獨家供應商。2023年SK海力士基本壟斷了HBM3供應,今年其HBM3與HBM3E的訂單也已售罄。

三星是在2016年,開始宣布量產4GB/8GB HBM2 DRAM;2018年,宣布量產第二代8GB HBM2;2020年,推出16GB HBM2E產品;2021年,三星開發(fā)出具有AI處理能力的HBM-PIM;雖然三星的路線圖顯示2022年HBM3技術已經量產,但實際上三星的HBM3在2023年底才正式完成驗證,這意味著在大量生產之前,市場還是由SK 海力士壟斷。

再看美光,2020年,美光宣布將開始提供HBM2內存/顯存;2021年,HBM2E產品上市。為了改善自己在HBM市場中的被動地位,美光選擇了直接跳過第四代HBM即HBM3,直接升級到了第五代,即HBM3E。隨后在2023年9月,美光宣布推出HBM3 Gen2(即HBM3E),后續(xù)表示計劃于 2024 年初開始大批量發(fā)貨 HBM3 Gen2 內存,同時透露英偉達是主要客戶之一。

03、HBM2e過渡到HBM3e

HBM的概念的起飛與AIGC的火爆有直接關系。

AI大模型的興起催生了海量算力需求,而數(shù)據(jù)處理量和傳輸速率大幅提升使得AI服務器對芯片內存容量和傳輸帶寬提出更高要求。HBM具備高帶寬、高容量、低延時和低功耗優(yōu)勢,目前已逐步成為AI服務器中GPU的搭載標配。

目前,HBM產品以HBM(第一代)、HBM2(第二代)、HBM2E(第三代)、HBM3(第四代)、HBM3E(第五代)的順序開發(fā),最新的HBM3E是HBM3的擴展版本。

來源:山西證券

HBM每一次更新迭代都會伴隨著處理速度的提高。引腳(Pin)數(shù)據(jù)傳輸速率為1Gbps的第一代HBM,發(fā)展到其第五代產品HBM3E,速率提高到了8Gbps,即每秒可以處理1.225TB的數(shù)據(jù)。也就是說,下載一部長達163分鐘的全高清(Full-HD)電影(1TB)只需不到1秒鐘的時間。

當然,存儲器的容量也在不斷加大。HBM2E的最大容量為16GB,目前,三星正在利用EUV光刻機來制造24GB容量的HBM3芯片,此外8層、12層堆疊可在HBM3E上實現(xiàn)36GB(業(yè)界最大)的容量,比HBM3高出50%。

此前SK海力士、美光均已宣布推出HBM3E芯片,皆可實現(xiàn)超過1TB/s的帶寬。

根據(jù)TrendForce集邦咨詢調查顯示,2023年HBM市場主流為HBM2e,包含NVIDIA A100/A800、AMD MI200以及多數(shù)CSPs自研加速芯片皆以此規(guī)格設計。同時,為順應AI加速器芯片需求演進,各原廠計劃于2024年推出新產品HBM3e,預期HBM3與HBM3e將成為明年市場主流。

04、HBM3e市場徹底被引爆

SK海力士無疑是這波內存熱潮中的最大受益者,截至2023年12月31日,SK海力士在2023財年和第四季度的營收取得了顯著增長。特別是其主力產品DDR5 DRAM和HBM3,在這一年的收入較去年上漲了4倍以上。

英偉達和AMD的下一代人工智能GPU預計將主要搭載HBM3內存。例如,H100是第一款支持PCIe 5.0標準的GPU,也是第一款采用HBM3的GPU,最多支持六顆HBM3,帶寬為3TB/s,是A100采用HBM2E的1.5倍,默認顯存容量為80GB。

2023年11月英偉達發(fā)布了新一代AI GPU芯片H200,以及搭載這款GPU的AI服務器平臺HGX H200等產品。這款GPU是H100的升級款,依舊采用Hopper架構、臺積電4nm制程工藝,根據(jù)英偉達官網,H200的GPU芯片沒有升級,核心數(shù)、頻率沒有變化,主要的升級便是首次搭載HBM3e顯存,并且容量從80GB提升至141GB。

得益于新升級的HBM3e芯片,H200的顯存帶寬可達4.8TB/s,比H100的3.35TB/s提升了43%。不過這遠沒有達到HBM3e的上限,海外分析人士稱英偉達有意降低HBM3e的速度,以追求穩(wěn)定。如果與傳統(tǒng)x86服務器相比,H200的內存性能最高可達110倍。

由于美光、SK海力士等公司的HBM3e芯片需等到2024年才會發(fā)貨,因此英偉達表示H200產品預計將在2024年第二季度正式開售。

AMD 的 MI300 也搭配 HBM3,其中,MI300A 容量與前一代相同為 128GB,更高端 MI300X 則達 192GB,提升了 50%。AMD稱,MI300X提供的HBM密度最高是英偉達AI芯片H100的2.4倍,其HBM帶寬最高是H100的1.6倍。這意味著,AMD的芯片可以運行比英偉達芯片更大的模型。

與此同時,在2023年隨著AI GPU 以及與AI相關的各類需求激增,HBM價格也持續(xù)上漲。市場研究機構Yolo Group 報告顯示,2023 年期間HBM 內存供需鏈發(fā)生了重大變化,生產水平和采用率同時大幅提高,使得 HBM 成為比人工智能熱潮之前更有價值的資源,2023年 HBM 芯片的平均售價是傳統(tǒng) DRAM 內存芯片的五倍。

在HBM盛行的當下,沒有一家存儲廠商能夠忍住不分一杯羹。

05、三大原廠為之“瘋狂”

技術升級

SK海力士在SEMICON Korea 2024上發(fā)布了一項重要公告,公布了其雄心勃勃的高帶寬存儲器路線圖。該公司副總裁Kim Chun-hwan透露,計劃在2024上半年開始量產先進的HBM3E,并強調向客戶交付8層堆疊樣品。

HBM3E是SK海力士產品線的最新產品,可滿足日益增長的數(shù)據(jù)帶寬需求,在6堆棧配置中,每堆??商峁?.2 TB/s和驚人的7.2 TB/s通信帶寬。Kim Chun-hwan將這種進步的緊迫性歸因于生成式人工智能的迅速崛起,預計將見證驚人的35%的復合年增長率(CAGR)。然而,他警告說,在不斷升級的客戶期望的推動下,半導體行業(yè)正在面臨“激烈的生存競爭”。

隨著制程工藝節(jié)點的縮小并接近其極限,半導體行業(yè)越來越關注下一代存儲器架構和工藝,以釋放更高的性能。SK海力士已經啟動了HBM4的開發(fā),計劃于2025年提供樣品,并于次年量產。

根據(jù)美光的信息,與前幾代HBM相比,HBM4將采用更廣泛的2048位接口。導致每個堆棧的理論峰值內存帶寬超過1.5 TB/s。為了實現(xiàn)這些非凡的帶寬,在保持合理功耗的同時,HBM4的目標是大約6GT/s的數(shù)據(jù)傳輸速率。這種更寬的接口和更快的速度將使HBM4能夠突破內存帶寬的界限,滿足日益增長的高性能計算和AI工作負載需求。

三星是半導體行業(yè)的主要參與者,該公司也有HBM4的發(fā)布時間表,計劃于2025年提供樣品,并于2026年量產。三星高管Jaejune Kim透露,該公司的HBM產量的一半以上已經由專業(yè)產品組成。定制HBM解決方案的趨勢預計將加劇。通過邏輯集成,量身定制的選項對于滿足個性化客戶需求至關重要,從而鞏固了市場地位。

隨著HBM3E的發(fā)布和HBM4的準備,SK海力士和三星正在為未來的挑戰(zhàn)做準備,旨在保持其在HBM技術前沿的地位。不僅如此,全球前三大存儲芯片制造商正將更多產能轉移至生產HBM,但由于調整產能需要時間,很難迅速增加HBM產量,預計未來兩年HBM供應仍將緊張。

擴產情況

再看三大原廠的擴產情況。據(jù)悉,SK海力士將擴大其高帶寬內存生產設施投資,以應對高性能AI產品需求的增加。

去年6月有媒體報道稱,SK海力士正在準備投資后段工藝設備,將擴建封裝HBM3的利川工廠,預計到今年年末,該廠后段工藝設備規(guī)模將增加近一倍。

此外,SK海力士還將在美國印第安納州建造一座最先進的制造工廠,據(jù)兩位接受英國《金融時報》采訪的消息人士透露,SK海力士將在這家工廠生產 HBM 堆棧,這些堆棧將用于臺積電生產的 Nvidia GPU,SK 集團董事長表示,該工廠預計耗資 220 億美元。

三星電子和 SK 海力士之間的競爭正在升溫。三星電子從去年第四季度開始擴大第四代HBM即HBM3的供應,目前正進入一個過渡期。負責三星美國半導體業(yè)務的執(zhí)行副總裁 Han Jin-man 在今年1月表示,公司對包括 HBM 系列在內的大容量存儲芯片寄予厚望,希望它能引領快速增長的人工智能芯片領域。他在CES 2024的媒體見面會上對記者說,“我們今年的 HBM 芯片產量將比去年提高 2.5 倍,明年還將繼續(xù)提高 2 倍?!?/p>

三星官方還透露,公司計劃在今年第四季度之前,將 HBM 的最高產量提高到每月 15 萬至 17 萬件,以此來爭奪2024年的HBM市場。此前三星電子斥資105億韓元收購了三星顯示位于韓國天安市的工廠和設備,以擴大HBM產能,同時還計劃投資7000億至1萬億韓元新建封裝線。

為了縮小差距,美光對其下一代產品 HBM3E 下了很大的賭注,美光首席執(zhí)行官 Sanjay Mehrotra 表示:“我們正處于為英偉達下一代 AI 加速器提供 HBM3E 的驗證的最后階段。”其計劃于 2024 年初開始大批量發(fā)貨 HBM3E 內存,同時強調其新產品受到了整個行業(yè)的極大興趣。據(jù)悉,美光科技位于中國臺灣的臺中四廠已于2023年11月初正式啟用。美光表示,臺中四廠將整合先進探測與封裝測試功能,量產HBM3E及其他產品,從而滿足人工智能、數(shù)據(jù)中心、邊緣計算及云端等各類應用日益增長的需求。該公司計劃于2024年初開始大量出貨HBM3E。

值得注意的是高階HBM的競爭才剛剛開始,雖然目前HBM產品占整體存儲的出貨量仍然非常小,長期來看,隨著消費電子產品向AI化發(fā)展,對于高算力、高存儲、低能耗將是主要訴求方向,鑒于此預計HBM也將成為未來存儲廠商的技術發(fā)展方向。

本文為轉載內容,授權事宜請聯(lián)系原著作權人。