智通財經APP獲悉,韓國大型財團之一的SK集團董事長崔泰源在週一接受採訪時表示,英偉達首席執行官黃仁勛此前要求SK集團旗下存儲芯片製造巨頭SK海力士(SK
Hynix)提前六個月推出其下一代高帶寬存儲產品HBM4。SK海力士10月份在財報中曾表示,計劃在2025年下半年向大客户(市場猜測為英偉達以及AMD)提供HBM存儲系統。SK海力士發言人週一則表示,這一時間表確實比最初的目標要快,但沒有進一步進行闡述。
黃仁勛親自要求SK海力士加快下一代HBM——HBM4存儲系統的交貨速度,凸顯出對英偉達對於開發愈發先進的人工智能GPU系統的更高容量、更節能HBM存儲系統的無比強勁需求,以及更加凸顯出OpenAI、Anthropic、微軟、亞馬遜以及Meta等人工智能、雲計算以及互聯網大廠們對於AI訓練/推理算力幾乎無止境的“井噴式需求”,迫使英偉達(NVDA.US) 核心芯片代工廠台積電(TSM.US) 加班加點擴大Blackwell
AI GPU產能,以及紛紛要求英偉達以更快速度推出性能更高、存儲容量更龐大、推理效率更強大且更加節能的下一代AI GPU的研發進程。
英偉達計劃於2026年推出下一代AI GPU架構——Rubin,預計Rubin AI GPU將搭載HBM4存儲系統。據不完全統計,英偉達目前在全球數據中心AI芯片市場佔據80%-90%堪稱壟斷的市場份額,預計AMD佔比接近10%,其他份額則為谷歌TPU、亞馬遜自研ASIC等大廠自研AI芯片。
作為英偉達H100/H200以及近期批量生產的Blackwell AI
GPU的核心HBM存儲系統供應商,SK海力士一直在引領全球存儲芯片產能競賽,以滿足英偉達、AMD以及谷歌等大客户們滿足對HBM存儲系統的爆炸性需求以及其他企業對於數據中心SSD等企業級存儲產品的需求,這些存儲級的芯片產品對於處理海量數據以訓練出愈發強大的人工智能大模型以及需求劇增的雲端AI推理算力而言堪稱核心硬件。
但SK海力士也面臨着來自三星電子以及美國存儲巨頭美光(MU.US) 日益激烈的競爭壓力。三星上週在財報中表示,在與一家主要客户(可能是英偉達)達成供應協議方面取得了積極進展,此前該公司長期遭遇產品測試延誤並且在上一次測試中未能通過英偉達資質測試。三星補充表示,該公司正在與主要客户進行談判,有可能明年上半年批量生產“改進後”的HBM3E產品。三星還計劃在明年下半年生產下一代HBM——HBM4存儲,以跟上競爭對手SK海力士的步伐。
在美國,美國本土存儲巨頭美光乃另一獲得英偉達供應資質的HBM供應商,另一家為SK海力士。在今年2月,美光已經開始量產專為人工智能和高性能計算所設計的HBM3E存儲系統,並表示英偉達一部分H200以及Blackwell
AI
GPU將搭載美光HBM3E。隨後,美光CEO還多次表示,美光今明兩年的HBM產能已銷售一空。美光還表示,正在加速推進下一代的HBM4和HBM4e研發進程。
在與崔泰源接受採訪幾乎同一時間,SK海力士首席執行官郭魯正在首爾舉行的2024年SK人工智能峯會上表示,該公司計劃今年年底前向一位大客户(市場猜測為英偉達)提供最新的12層HBM3E,並計劃在明年初運送更先進的16層HBM3E存儲樣品。並且這位首席執行官在採訪中還透露,英偉達AI
GPU供應仍然難以滿足需求,並且英偉達多次要求SK海力士加快HBM3E供應規模。
HBM需求炸裂,堪稱“印鈔機”
英偉達創始人兼CEO黃仁勛在前不久的採訪中曾透露,Blackwell架構AI GPU已全面投產,且需求非常“瘋狂”;與此同時,隨着AI
GPU需求爆表,HBM存儲系統需求也隨之激增,並且未來幾年可能持續供不應求。
據瞭解,來自天風國際的知名科技產業鏈分析師郭明錤最新發布英偉達Blackwell
GB200芯片的產業鏈訂單信息,指出微軟目前是全球最大的GB200客户,Q4訂單激增3-4倍,訂單量超過其他所有的雲服務商總和。
郭明錤在一份最新報告中表示,Blackwell AI
GPU的產能擴張預計在今年第四季度初啟動,屆時第四季度的出貨量將在15萬到20萬塊之間,預計2025年第一季度出貨量將顯著增長200%到250%,達到50萬到55萬塊。這意味着,英偉達可能僅需幾個季度就能實現百萬台AI服務器系統的銷量目標。
根據華爾街金融巨頭花旗集團的最新預測數據,到2025年,美國四家最大規模科技巨頭的數據中心相關資本支出預計將同比增長至少40%,這些龐大的資本支出基本上都與生成式人工智能掛鈎,意味着ChatGPT等AI應用的算力需求仍然龐大。花旗集團表示,這意味着巨頭們對於數據中心的支出規模有望在本已強勁的2024支出規模之上繼續大舉擴張,該機構預計這一趨勢將為AI
GPU當之無愧的霸主英偉達以及數據中心互連(DCI)技術提供商們股價持續帶來非常重磅的正面催化劑。
HBM存儲系統與AI芯片霸主英偉達所提供的核心硬件——H100/H200/GB200 AI GPU以及廣泛的AI
ASIC芯片(比如谷歌TPU)配合搭載使用,HBM與英偉達AI GPU共同組合成所謂的“NVIDIA AI GPU服務器”。HBM以及AI
GPU對於驅動ChatGPT以及Sora等重磅人工智能應用可謂必不可少,AI GPU需求越強勁,則説明HBM存儲需求愈發猛烈。
HBM是一種高帶寬、低能耗的存儲技術,專門用於高性能計算和圖形處理領域。HBM通過3D堆疊存儲技術,將堆疊的多個DRAM芯片全面連接在一起,通過微細的Through-Silicon
Vias(TSVs)進行數據傳輸,從而實現高速高帶寬的數據傳輸。HBM通過3D堆疊技術,將多個存儲芯片堆疊在一起,不僅大幅減少了存儲體系空間佔比,也大幅降低了數據傳輸的能耗,高帶寬則能夠顯著提升數據傳輸效率,使得AI大模型能夠24小時不間斷地更高效地運行。
尤其是HBM存儲系統具有無可比擬的低延遲特性,能夠快速響應數據訪問請求。GPT-4等生成式AI大模型通常需要頻繁訪問大數據集以及進行無比繁重的大模型推理工作負載,強大的低延遲特性能夠極大程度提高AI系統的整體效率和響應速度。在AI基礎設施領域,HBM存儲系統全面捆綁英偉達H100
/H200 AI GPU以及AMD MI300X等AI GPU,以及正在批量生產的英偉達B200和GB200 AI GPU,以及AMD MI325X等。
華爾街大行高盛發佈研報稱,由於企業無比強勁的生成式人工智能(Gen AI)需求推動了更高的AI服務器出貨量和每個AI
GPU中更高的HBM密度,該機構大幅提高了HBM總市場規模預估,現在預計市場規模將從2023年到2026年間以複合年增速100%大幅增長,預計到2026年增長至300億美元。高盛預計,HBM市場供不應求的情況未來幾年將持續,SK海力士、三星和美光等主要玩家將持續受益。
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 智通財經