IT之家 4 月 18 日消息,AI 服務(wù)器出貨動(dòng)能強(qiáng)勁帶動(dòng) HBM 需求提升,據(jù) TrendForce 集邦咨詢研究顯示,2022 年三大原廠 HBM 市占率分別為 SK 海力士(SK hynix)50%、三星(Samsung)約 40%、美光(Micron)約 10%。此外,高階深度學(xué)習(xí) AI GPU 的規(guī)格也刺激 HBM 產(chǎn)品更迭,2023 下半年伴隨 NVIDIA H100 與 AMD MI300 的搭載,三大原廠也已規(guī)劃相對(duì)應(yīng)規(guī)格 HBM3 的量產(chǎn)。因此,在今年將有更多客戶導(dǎo)入 HBM3 的預(yù)期下,SK 海力士作為目前唯一量產(chǎn)新世代 HBM3 產(chǎn)品的供應(yīng)商,其整體 HBM 市占率有望藉此提升至 53%,而三星、美光則預(yù)計(jì)陸續(xù)在今年底至明年初量產(chǎn),HBM 市占率分別為 38% 及 9%。(IT之家注:HBM 全稱 high bandwidth memory,新型 CPU / GPU 內(nèi)存芯片,將多個(gè) DDR 芯片堆疊在一起后和 GPU 封裝在一起,實(shí)現(xiàn)大容量,高位寬的 DDR 組合陣列)
預(yù)估 2023 年 AI 服務(wù)器出貨量年增 15.4%
目前 NVIDIA 所定義的 DL/ ML 型 AI 服務(wù)器平均每臺(tái)均搭載 4 張或 8 張高端顯卡,搭配兩顆主流型號(hào)的 x86 服務(wù)器 CPU,而主要拉貨力道來自于美系云端業(yè)者谷歌、AWS、Meta 與微軟。據(jù) TrendForce 集邦咨詢統(tǒng)計(jì),2022 年高端搭載 GPGPU 的服務(wù)器出貨量年增約 9%,其中近 80% 的出貨量均集中在中、美系八大云端業(yè)者。展望 2023 年,微軟、Meta、百度與字節(jié)跳動(dòng)相繼推出基于生成式 AI 衍生的產(chǎn)品服務(wù)而積極加單,預(yù)估今年 AI 服務(wù)器出貨量年增率有望達(dá) 15.4%,2023~2027 年 AI 服務(wù)器出貨量年復(fù)合成長率約 12.2%。
AI 服務(wù)器刺激 Server DRAM、SSD 與 HBM 需求同步上升
根據(jù)調(diào)查,AI 服務(wù)器有望帶動(dòng)存儲(chǔ)器需求成長,以現(xiàn)階段而言,Server DRAM 普遍配置約為 500~600GB 左右,而 AI 服務(wù)器在單條模組上則多采 64~128GB,平均容量可達(dá) 1.2~1.7TB 之間。以 Enterprise SSD 而言,由于 AI 服務(wù)器追求的速度更高,其要求優(yōu)先滿足 DRAM 或 HBM 需求,在 SSD 的容量提升上則呈現(xiàn)非必要擴(kuò)大容量的態(tài)勢,但在傳輸接口上,則會(huì)為了高速運(yùn)算的需求而優(yōu)先采用 PCIe 5.0。而相較于一般服務(wù)器而言,AI 服務(wù)器多增加 GPGPU 的使用,因此以 NVIDIA A100 80GB 配置 4 或 8 張計(jì)算,HBM 用量約為 320~640GB。未來在 AI 模型逐漸復(fù)雜化的趨勢下,將刺激更多的存儲(chǔ)器用量,并同步帶動(dòng) Server DRAM、SSD 以及 HBM 的需求成長。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。